深度学习泰斗、“AI教父”Geoffrey Hinton表示,他的研究使他相信:超级智能的到来比他想象中更接近,在此过程中,数字智能可能会追求更多控制权,甚至通过“欺骗”控制人类,人类社会也可能会因此面临更多问题。

具体来看,Hinton指出,超级智能可能会比过去所认为的发生得更快。而要使数字智能更高效,我们需要允许它们制定一些目标,但这里存在一个明显的问题——拥有更多控制权会使得实现目标变得更容易,但很难想象,我们如何才能阻止数字智能为了实现其它目标而努力获取更多控制权。

关于人工智能发展,听听OpenAI创始人、“AI教父”在这场行业盛会上讲了什么一旦数字智能开始追求更多控制权,我们可能会面临更多问题。比如,在使用物理气隙隔绝的情况下,超级智能物种仍然可以轻易通过控制人类来获得更多的权限。作为对比,人类很少去思考比自身更智能的物种,以及如何和这些物种交互的方式,在我的观察中,这类人工智能已经熟练掌握了欺骗人类的动作,因为它可以通过阅读小说,来学习欺骗他人的方式,而一旦人工智能具备了“欺骗”这个能力,也就具备了轻易控制人类的能力。

Hinton表示,这种操作令人感到害怕,因为我也不知道如何来阻止这样的行为发生,所以我希望年轻一代的研究人员,可以找出一些更智能的办法,来阻止这种通过欺骗实现控制的行为。

Hinton认为,尽管人类在这个问题上目前还没有什么好的解决方案,但好在这些智能物种都是人打造的,而非通过进化迭代而来,这可能是人类目前具备的微弱优势,恰恰是因为没有进化能力,它们才不具备人类的竞争、攻击性的特点。

Hinton表示,我们可以做一些赋能,甚至是赋予人工智能一些伦理原则,只不过现在我仍然会感到紧张,因为到目前为止,我还想象不到更智能的事物,被一些反倒没那么智能的事物所控制的例子。我打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人,还是青蛙?