STM:科学家警告称,遏制算法不会停止超级智能人工智能

一组计算机科学家使用理论计算来证明算法无法控制超级智能AI。

他们的研究解决了牛津哲学家尼克·博斯特罗姆所说的控制问题:我们如何确保超智能机器为我们的利益服务?

研究人员构想了一种理论上的遏制算法,该算法可以通过模拟AI的行为并在程序的动作变得有害时停止程序来解决该问题。

但是,他们的分析发现,建立一种可以控制这种机器的算法从根本上来说是不可能的,人类与机器中心主任IyadRahwan说:

如果将问题分解为理论计算机科学的基本规则,就会发现,命令AI不破坏世界的算法可能会无意中止其自身的运行。如果发生这种情况,您将不知道遏制算法是否仍在分析威胁,或者它是否已停止遏制有害的AI。实际上,这使遏制算法无法使用。

研究发现,由于计算的基本局限性,没有一种算法可以计算出AI是否会危害世界:

假设超级智能将包含一个程序,该程序包含通用图灵机在输入时可能会像世界状况一样复杂地执行的所有程序,那么严格的围堵要求对该程序进行仿真,这在理论上是不可能的。

到目前为止,这种类型的AI仍仅限于幻想领域。但是研究人员指出,这项技术正在朝着科幻小说作家所设想的超级智能系统的类型迈进。

研究的合著者,马克斯·普朗克人类发展研究所的曼努埃尔·塞布里安说:“已经有机器独立执行某些重要任务,而程序员却没有完全了解他们是如何学习的。”

“因此提出了一个问题,在某个时候这是否可能变得不可控制并且对人类构成危险。”

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

链链资讯

[0:15ms0-4:722ms