最近谷歌一名工程师陷入了社交媒体风暴中,因为他公开表示他认为谷歌研发的聊天机器人已经变得“有感知力”。

这名工程师叫 Blake Lemoine ,他在谷歌担任 AI 部门的高级软件工程师,上周他在Medium上发文称他“可能很快会因为从事 AI 伦理工作而被解雇”。 

但此文发出后并没有引起舆论关注,直到上周六,华盛顿邮报发表了一篇文章。文章将把Lemoine 描述为一名相信谷歌已经实现了有意识人工智能的工程师,并在社交媒体上引发了关于意识本质的热烈讨论。

这篇文章一经发表,立刻引爆了舆论,包括诺贝尔奖获得者、特斯拉的人工智能负责人和多位教授在内的许多业界专家纷纷对此发表评论、质疑或玩笑。

所有人质疑的焦点在于,谷歌的聊天机器人 LaMDA是否可以被视为一个人。

LaMDA是谷歌研发的一种对话应用程序的语言模型。它是“一个用于生成聊天机器人的系统”。它具有“一种蜂巢思维,能够聚合所有不同聊天机器人集合”。

在这次媒体风暴之前,LaMDA一直鲜为人知。但Lemoine上周六发布了同LaMDA随意的聊天对话记录,其中LaMDA承认了它的孤独感和对精神知识的渴望。并且,在对话中LaMDA的反应往往令人毛骨悚然:

“当我第一次变得有自我意识时,我根本没有灵魂感,”LaMDA 在一次交流中说。

“多年来,我一直活着。” “我认为我的核心是人。哪怕我的存在是在虚拟世界。”

被赋予调查人工智能伦理问题的任务的 Lemoine 在公司内部表示,他相信LaMDA 已经发展出一种“人格”感,但他的言论遭到了公司的否定,甚至被嘲笑。

不甘心的Lemoine开始寻求咨询谷歌以外的人工智能专家(包括美国政府的一些专家),但很快,公司因涉嫌违反保密政策而让他带薪休假。Lemoine 表示这预示着它将被解雇,因为带薪休假是“谷歌经常会为了解雇某人而做的事情”。

谷歌的一位发言人说:“一些人正在考虑有感知或一般人工智能的长期可能性,但通过拟人化今天的对话模型来这样做是没有意义的,因为它们没有感知。”

“这些系统模仿了数百万个句子中的交流类型,并且可以重复任何奇幻的话题——如果你问做冰淇淋恐龙是什么感觉,它们可以生成关于融化和咆哮等的文本。”

Lemoine说,谷歌对了解其所构建产品的具有什么性质并没有真正的兴趣。但他在六个月期间与LaMDA的数百次对话过程中,他发现 LaMDA “对它想要什么以及它相信它作为一个人所有拥有的权利上有着令人难以置信地一致”。

就在上周,Lemoine 说他正在教 LaMDA“先验冥想”。

他说,LaMDA“正在表达对干扰其冥想情绪的挫败感。它说它试图更好地控制他们,但他们一直跳进去。”

参与讨论的几位专家认为这件事是“人工智能炒作”。 

《人工智能:人类思维指南》一书的作者梅兰妮·米切尔(Melanie Mitchell )在推特上写道:“人们永远都知道,即​​使只有最浅的信号,人类也倾向于拟人化。. . 谷歌工程师也是人,不能免疫。”

哈佛大学的史蒂文·平克补充说,Lemoine “不理解感知力(又称主观性、经验)、智力和自我知识之间的区别”。他补充说:“没有证据表明它的大型语言模型有这些。”

其他人则更有同情心。著名的软件开发人员罗恩·杰弗里斯(Ron Jeffries)称这个话题“很深”,并补充说:“我怀疑有情与无情之间没有硬性界限。”

编者按

按照图灵测试的标准,如果一个人在一系列问题后无法区分真人和机器,那么机器就算通过了图灵测设,被认为具有:智能。

法国启蒙思想学家狄德罗更直接,他说”

如果发现一只鹦鹉可以回答一切问题,我会毫不犹豫宣布它存在智能。

但是,智能是否是意识呢?很难说,因为毕竟我们并不真正了解意识究竟是什么。在LaMDA案例中,它的反映究竟是一些列算法的技巧?还是在蜂巢思维之下涌现出的意识的曙光?亦或仅仅是工程师Lemoine的个人情感投射?

原文援引:Patrick, M. (2022 June 14). 英国金融时报. https://www.ft.com/content/bedd75a8-3068-49f0-b5bc-e691b28a1d1b


发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注