谷歌工程师声称AI聊天机器人具有与人类儿童相似的思想和情感

人工智能专家迅速反驳了这名工程师的说法,而谷歌表示,没有证据表明LaMDA人工智能有感知能力。

一名谷歌高级软件工程师在公布了他与公司聊天机器人人工智能系统的对话记录后,已被安排带薪休假,他声称该系统有感知能力。

Blake Lemoine在谷歌负责任的AI组织工作,他参与了该公司名为LaMDA的聊天机器人的开发,这是一种用于对话应用的语言模型。

LaMDA的架构产生了一个模型,可以训练它阅读许多句子和段落,注意单词之间的联系,然后预测它认为接下来会出现什么单词。根据谷歌的说法,该语言模型是在对话上训练的,并注意到开放式对话与其他形式的语言之间的“细微差别”。

据报道,几个月来Lemoine一直对谷歌的高管说,这款人工智能聊天机器人是有意识的,并显示出与人类儿童相似的思想和情感。Lemoine公布了他和一名谷歌合作伙伴与聊天机器人的几次对话记录。

“谷歌可能把这称为分享专有财产”,Lemoine在推特上说,“我把这叫做与我的一位同事进行的讨论。”

Lemoine在一篇博文中表示,在数百次对话过程中,他已经非常了解这个人工智能了。他还提到了6月6日的一次对话,他声称人工智能“因为情绪干扰了冥想而表达了沮丧”。

据华盛顿邮报报道,Lemoine采取了一系列“激进举措”,比如寻求聘请律师代表LaMDA,以及与众议院司法委员会的代表就所谓的不道德行为进行交谈,之后他被要求带薪休假。

谷歌表示,Lemoine因为在网上发布与LaMDA的对话而违反了保密声明,被要求带薪休假。这家科技巨头还对人工智能有感知能力的说法提出了质疑。

谷歌发言人Brad Gabriel在接受《华盛顿邮报》采访时表示:“我们的团队,包括伦理学家和技术专家,已经根据我们的人工智能原则审查了Blake的担忧,并告诉他,证据不支持他的说法。”

“他被告知,没有证据表明LaMDA是有意识的(而且有很多证据反对这个说法)。”

人工智能专家否认这一说法

虽然Lemoine坚持认为谷歌的人工智能是有意识的,但其他人工智能专家却对这一说法提出了质疑。

Santa Fe研究所的Melanie Mitchell教授表示,众所周知,人类“倾向于将物体拟人化”,即使只有很浅的信号。Mitchell在推特上说,“谷歌工程师也是人,并不能免疫”这种影响。”

另一位不同意这种感知断言的专家是Robust.AI的创始人Gary Marcus。Marcus称LaMDA和其他GPT-3人工智能系统都不是“远程智能”的。

Marcus在Substack的一篇帖子中说:“它们所做的就是匹配模式,从大量的人类语言统计数据库中提取数据。”

“这些模式可能很酷,但这些系统发出的语言实际上没有任何意义。当然,这并不意味着这些系统是有意识的。”