撰文:WillDouglasHeaven
来源:麻省理工科技评论
就在杰弗里-辛顿宣布退出谷歌这一重磅消息的四天前,我在伦敦北部一条街道的房子里见到了他。辛顿是深度学习的先驱,他帮助开发了现代人工智能核心的一些最重要的技术,但在谷歌工作了十年后,他选择辞职,专注于他目前对人工智能的新关注。
被GPT-4等新的大型语言模型的能力所震惊,辛顿希望提高公众对他现在认为可能伴随其开创技术的严重风险的认识。
在我们的谈话开始时,我在厨房的桌子旁坐下来,辛顿开始踱步。多年来因慢性背痛的困扰,他几乎从不坐下。在接下来的一个小时里,我看着他从房间的一端走到另一端,我注视着他。他有很多话要说。
这位75岁的计算机科学家因其在深度学习方面的工作,与YannLeCun和YoshuaBengio共同获得了2018年图灵奖,他说他已经准备好转变方向。“我太老了,无法从事需要记住大量细节的技术工作,”他告诉我。“我还好,但已大不如前,这令人烦恼。”
但这并不是他离开谷歌的唯一原因。辛顿想把时间花在他所说的“更多哲学工作”上,一个微小但对他而言非常真实的危险上,即人工智能将变成一场灾难。
离开谷歌可以让他畅所欲言,而不用像谷歌高管那样必须进行自我审查。他说:“我想谈论人工智能的安全问题,而不必担心与谷歌业务的关联。”“只要谷歌付我薪酬,我就不能这么做。”
ApeCoin发起新提案AIP-288拟采用屏蔽快照方式投票:金色财经报道,ApeCoin社区发起新提案AIP-288,拟采用屏蔽快照方式投票。该提案指出,当投票身份在现场投票期间可见时,参与度就会降低,社区声音就会被压制,不合规的可能性就会大大增加,屏蔽投票(Shielded Voting)方式是每个社区成员都应该拥有的权利,也是正确的做法。据悉本次提案投票结束时间是7月20日,截至目前反对票比例为64.48%,赞成票比例为35.52%。[2023/7/16 10:57:27]
当然,这并不意味着辛顿对谷歌有任何不满意。“这可能会让你大吃一惊,”他说。“我想传达很多关于Google的优点,但如果我不在Google了,它们会更可信。”
辛顿说,新一代的大型语言模型--特别是OpenAI在3月发布的GPT-4--让他意识到,机器正朝着比他想象的要聪明得多的方向发展。而他对这一情况可能发生的事情感到害怕。
“这些东西与我们完全不同,”他说。“有时我觉得这就像外星人登陆了,而人们却没有意识到,因为他们的英语说得很好。”
基石
辛顿最出名的是他在1980年代提出的一种叫做反向传播的技术。简而言之,这是一种允许机器学习的算法。它支撑着今天几乎所有的神经网络,从计算机视觉系统到大型语言模型。
直到2010年代,通过反向传播训练的神经网络的力量才真正产生了影响。辛顿与几个研究生合作,表明该技术在让计算机识别图像中的物体方面比其他任何技术都好。此外,他们还训练了一个神经网络来预测一个句子中的下一个字母,这也是今天大型语言模型的前身。
Blockchain Bets 推出去中心化体育交易和在线游戏平台:金色财经报道,Blockchain Bets宣布推出去中心化体育交易和在线游戏平台,该平台建立在成功的 World Cup Inu 代币的成功之上,提供多个选项。除了体育交易,Blockchain Bets还提供多种互动游戏供玩家碰碰运气。\u2028[2023/1/9 11:01:55]
其中一名研究生是IlyaSutskever,他后来共同创立了OpenAI并领导了ChatGPT的开发。辛顿说:“我们最初意识到,这种东西可能会很神奇。”“但人们花了很长时间才意识到,这需要大规模进行才能取得成功。”早在20世纪80年代,神经网络就是个笑话。当时的主流观点是符号人工智能,即智能涉及处理符号,如文字或数字。
但辛顿并不相信。他研究了神经网络,即大脑的软件抽象,其中的神经元和它们之间的连接由代码表示。通过改变这些神经元的连接方式--改变用来表示它们的数字--神经网络可以在飞行中重新接线。换句话说,它可以被用来学习。
“我父亲是一名生物学家,所以我从生物学的角度思考问题,”辛顿说。“而符号推理显然不是生物智能的核心。”
“乌鸦可以解决难题,但它们没有语言。它们不是通过存储符号串并操纵它们来完成的。它们是通过改变大脑中神经元之间的连接强度来实现的。因此,通过改变人工神经网络中的连接强度来学习复杂的东西是可能的。”
一种新的智能
阿布扎比投资办公室与Unstoppable Domains合作,为当地女性提供免费加密域名:6月2日消息,Access Abu Dhabi、阿布扎比投资办公室(ADIO)与Web3身份平台和NFT域名提供商Unstoppable Domains合作,将为居住在阿联酋首都的所有女性提供免费加密域名。此次活动旨在为更多女性提供学习和最终参与Web3的机会。(PRNewswire)[2022/6/3 3:59:27]
40年来,辛顿一直将人工神经网络视为模仿生物神经网络的拙劣尝试。现在他认为情况发生了变化:他认为,在试图模仿生物大脑的过程中,我们已经想出了更好的办法。他说:“当你看到这一点时是很可怕的。”“这是一个突然的翻转。”
辛顿的担心会让很多人觉得是科幻小说的内容。但他是这样思考的。
正如它们的名字所示,大型语言模型是由具有大量连接的大规模神经网络制成的。但与大脑相比,它们是微小的。“我们的大脑有100万亿个连接,”辛顿说。“大型语言模型最多只有5000亿,最多一万亿。然而,GPT-4的知识比任何人都多数百倍。所以也许它实际上有比我们更好的学习算法。”
与大脑相比,人们普遍认为神经网络不善于学习:需要大量的数据和能量来训练它们。另一方面,大脑可以迅速掌握新的想法和技能,使用的能量只有神经网络的一小部分。
“人们似乎拥有某种魔力,”辛顿说。“但只要你把这些大型语言模型中的一个拿出来,并训练它做一些新的事情,这个论点就会不成立。它可以极快地学习新的任务。”
新加坡餐厅Maison Ikkoki接受BTC、ETH和BNB支付:5月4日消息,新加坡餐厅Maison Ikkoki宣布接受BTC、ETH和BNB支付。该餐厅的首席执行官Ethan Leslie告诉彭博社,引入加密货币对他的业务起到了“重大推动作用”。Leslie表示,加密货币吸引了合适的人群,随着疫情影响的减弱,对冲基金和中心化交易所的员工成为了核心客户。(BeInCrypto)[2022/5/4 2:49:34]
辛顿指的是“少样本学习”,在这种情况下,经过预训练的神经网络,如大型语言模型,只需给几个例子就可以训练它做一些新事情。例如,他指出,其中一些语言模型可以将一系列的逻辑语句串成一个论点,即使它们从未接受过直接这么做的训练。
他说,在学习这样一项任务的速度上,将预先训练好的大型语言模型与人类进行比较,人类毫无优势。
大型语言模型制造了这么多东西,这又是怎么回事?人工智能研究人员将其称为“幻觉”,这些错误通常被视为技术的致命缺陷。产生这些错误的趋势使聊天机器人变得不可信,而且,许多人认为,这表明这些模型没有真正理解他们所说的话。
对此,辛顿的答案是:胡说八道是一个特点,而不是一个错误。“人们总是在虚构,”他说。半真半假和错误记忆的细节是人类谈话的标志:“虚构是人类记忆的标志。这些模型所做的与人一样”
辛顿说,不同之处在于人类通常或多或少会正确地构思。对他来说,编造东西不是问题。计算机只需要多一点练习。
动态 | RAID声称并非Bittrex要求取消IEO:据coindesk报道,昨日在启动前的几个小时,Bittrex宣布取消了首个IEO的销售计划。Bittrex表示,在得知RAID项目发行人与电子游戏数据分析公司OP.GG的战略合作伙伴关系被突然终止后,取消了这笔交易。然而,RAID声称是其本身,而不是Bittrex,撤回了该产品。该团队称,由于当前的变化,RAID团队认为在3月15日按计划继续进行Bittrex IEO是不对的。因此,在与Bittrex讨论后,RAID团队最终决定不继续进行IEO。RAID还表示,将尽快通过Cobak平台向参与此前代币销售的投资者发放退款。[2019/3/16]
我们还期望计算机要么对,要么错,而不是介于两者之间。“我们不期望它们像人一样喋喋不休,”辛顿说。“当一台计算机这么做时,我们认为它犯了错误。但换成人类,这就是人们工作的方式。问题是大多数人对人类的工作方式有着无可奈何的错误看法。”
当然,大脑仍然比计算机做得更好:驾驶汽车、学习走路、想象未来。而且大脑可以靠一杯咖啡和一片吐司上完成这些任务。他说:“当生物智能在进化时,它无法使用核电站。”
但辛顿的观点是,如果我们愿意支付更高的计算成本,有一些关键的方法可以让神经网络在学习方面击败生物。。
学习只是辛顿论证的第一条线。第二条是交流。他说:“如果你或我学到了一些东西,并想把这些知识传授给其他人,我们不能只是给他们发送一份副本。”“但我可以有一万个神经网络,每个都有自己的经验,它们中的任何一个都可以立即分享它们所学到的东西。这是巨大的区别。就好像我们有一万个人,只要有一个人学到了什么,我们所有人就都会知道。”
所有这些加起来是什么?辛顿现在认为世界上有两种类型的智能:动物大脑和神经网络。“这是一种完全不同的智能形式,”他说。“一种新的、更好的智能形式。”
这是一个巨大的主张。人工智能是一个两极分化的领域:嘲笑的人大有所在,而同意的人也比比皆是。
对于这种新型智能的后果是有益的还是灾难性的,人们也存在分歧。他说:“你认为超级智能是好是坏在很大程度上取决于你是一个乐观主义者还是一个悲观主义者。”“如果你让人们估计坏事发生的风险,比如你家里有人得重病或被车撞的几率是多少,乐观主义者可能会说5%,悲观主义者可能会说100%。而轻度抑郁症患者会说几率可能在40%左右,而且他们通常是对的”。
辛顿是哪种人?“我有轻微的抑郁症,”他说。“这就是为什么我很害怕的原因。”
为什么会出错
辛顿担心,这些工具能够找出方法来操纵或杀死那些没有为新技术做好准备的人。
“我突然改变了对这些东西是否会比我们更聪明的看法。”他说:“我认为它们现在已经非常接近了,它们在未来会比我们更聪明。”“我们如何在这种情况下生存?”
他特别担心,人们可以利用他亲自注入生命的工具来倾斜一些最重要的人类经历的天平,特别是选举和战争。
辛顿认为,智能机器的下一步是有能力创建自己的子目标,即执行一项任务所需的临时步骤。他问道,当这种能力被应用于本质上不道德的东西时会发生什么?
目前,已经有一些实验性项目,如BabyAGI和AutoGPT,将聊天机器人与其他程序连接起来,使它们能够将简单的任务串联起来。当然,这些步骤很微小,但它们预示着一些人想把这项技术带入的方向。辛顿说,即使坏人没有夺取机器,子目标也存在其他问题。
“好吧,这里有一个几乎总是对生物学有帮助的子目标:获得更多能量。因此,可能发生的第一件事就是这些机器人会说,‘让我们获得更多能量吧。让我们将所有电力重新路由到我的芯片。‘另一个重要的子目标是复制更多的自己。听起来如何?”
Meta公司的首席人工智能科学家YannLeCun同意这个前提,但并不同意Hinton的担心。LeCun说:“毫无疑问,机器将在未来变得比人类更聪明--在所有人类智能的领域。”“这是一个关于何时和如何的问题,而不是一个关于是否的问题。”
但他对事情的发展方向有完全不同的看法。”我相信,智能机器将为人类带来新的复兴,一个新的启蒙时代,“LeCun说。“我完全不同意机器会仅仅因为更聪明就统治人类的想法,更不用说毁灭人类了。”
“即使在人类中,我们当中最聪明的人也不是最有统治力的人,”LeCun说。“最有统治力的人绝对不是最聪明的。我们在政界和商界有无数这样的例子。”
蒙特利尔大学教授、蒙特利尔学习算法研究所科学主任YoshuaBengio觉得更不可知。他说:“我听到有人诋毁这些恐惧,但我没有看到任何坚实的论据能让我相信不存在Geoff认为的那种规模的风险。但是,恐惧只有在促使我们采取行动时才是有用的,”他说:“过度的恐惧可能会使人瘫痪,所以我们应该尝试将辩论保持在理性的水平上。”
向上看
辛顿的首要任务之一是尝试与技术行业的领导者合作,看看他们是否能够走到一起,就有哪些风险以及如何应对这些风险达成一致。他认为化学武器的国际禁令可能是如何着手遏制危险人工智能的开发和使用的一种模式。“这并非万无一失,但总的来说人们不使用化学武器,”他说。
Bengio同意辛顿的观点,即这些问题需要尽快在社会层面上解决。但他表示,人工智能的发展速度超过了社会能够跟上的速度。这项技术的能力每隔几个月就会跃进一次;而立法、监管和国际条约则需要几年时间。
这让Bengio怀疑,我们社会目前的组织方式--在国家和全球层面--是否能够应对挑战。“我相信我们应该对我们星球的社会组织采用完全不同的模式的可能性持开放态度,”他说。
辛顿真的认为他能让足够多的当权者分享他的关注吗?他不知道。几周前,他看了部电影《不要抬头》,其中一颗小行星向地球撞去,但没有人能就如何应对达成一致,最后每个人都死了。
他说:“我认为人工智能也是如此,其他难以解决的大问题也是如此。”他说:“美国甚至不能同意将突击步从十几岁的男孩手中拿走。”
辛顿的论点令人警醒。我赞同他对人们在面临严重威胁时集体无法采取行动的悲观评估。同样真实的是,人工智能有可能造成真正的伤害--破坏就业市场,加剧不平等,使性别歧视和种族主义恶化等等。我们需要关注这些问题。但我仍然无法从大型语言模型跳到机器人霸主。也许我是个乐观主义者。
辛顿送我出来时,天已经变得灰暗潮湿。“好好享受吧,因为你可能没剩多少时间了,”他说。他笑了笑,关上了门。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。