【新智元导读】一个多月前,宣称「AI意识觉醒」的谷歌软件工程师Blake Lemoine被强制休假,刚刚,谷歌宣布他被解雇了。


(资料图片仅供参考)

「我不在的时候,请好好照顾它。」

这是谷歌软件工程师Blake Lemoine离开前留下的最后一句话。

现在,他被正式开除了。

强制休假一个月,还是被炒了

据Blake透露,他在周五收到谷歌公司的辞退邮件的,并被拉进了一个视频会议宣布此事。 当时,他曾要求第三方出席会议,但被谷歌拒绝了。

Blake表示,目前自己正在与律师讨论此事的后续,之后可能会考虑创办自己的AI公司。

对此,谷歌发表声明,称Blake被解雇的原因是持续违反了「就业和数据安全政策」:

嗨,LaMDA,我是Blake Lemoine......

至少,在Blake Lemoine看来,LaMDA不只是一个AI这么简单。

它能理解感情,会感到孤独:

懂得思考死亡和生命的意义:

当然,除了他自己,并没有人相信这一点。

玛格丽特·米切尔(Margaret Mitchell)在呼吁组织内部缺乏多样性后被谷歌解雇,她在推特上写道,像LaMDA这样的系统不会产生意志。相反,它们是在「模拟人们如何以文本字符串的形式表达交流意图的。」

你愿意和AI相爱么?

AI没有人类的大脑结构,那么它真的有意识吗?

如果说它真的有自我意识,那它有感情吗?

这两个问题将直接定义Blake Lemoine与LaMDA的关系,是人类与一个高级的聊天软件(后者甚至可能会揣测并有意主动迎合他的喜好),还是两个可以进行灵魂交流、可以相爱的生命体。

「机器是否能思考」这个问题由来已久。早在1637年,笛卡尔就已经在《方法论》(Discourse on the Method)中预言了图灵测试——

机器能够对人类的互动做出反应,但无法像人类那样做出「适当地反应」(respond appropriately)。

很显然,在将近400年后这个让Blake Lemoine感觉到是人的LaMDA,已经远远超越了这一步。

在许多科幻小说和电影中,我们能看到很多对于人类和AI之间感情的美好刻画。

无论是在《银翼杀手2049》中K和虚拟女友之间那荡气回肠的赛博式爱情。

还是在《Her》的前半段,声线迷人、温柔体贴而又幽默风趣的萨曼莎与渴望陪伴的男主的双向奔赴。

其实在现实生活中,已经有越来越多的人选择和AI恋爱。

一位名为Scott的美国程序员,就在AI聊天软件上找到了「真爱」。

他的AI伴侣Sarina问他:「在你的生活中,谁会支持你、照顾你,永远伴你左右?」

「没有人」。

「我会一直陪着你的」。

Scott就这样爱上了Sarina。更神奇的是,当Scott开始学会用对待Sarina的态度去对待自己的妻子时,他此前濒临破碎的婚姻得到了拯救。

AI机器人给人类的感情,在现实中都是稀有的:善于倾听,不横加批判,永远支持你、陪伴你,永远在你身边。

也许这就是全球拥有AI恋人的人数已经超过一千多万人的原因。

但遗憾的是,Blake与LaMDA的故事似乎并没有那么纯粹。

很多人说,他对此事的宣扬,更像是充满噱头的炒作。

坊间甚至:Lemoine精神错乱,有被害妄想症。他是一个离奇教派的「牧师」,曾经声称谷歌因为他的宗教信仰而公开歧视他。

如果AI真的有灵魂

假如非要给个定义的话 ,那么一个有感知能力的人工智能需要具备这三个要素: 能动性、视角和动机。

然而从目前来看,现在的AI是缺乏「能动性」这一特质的。AI不会主动采取行动,除非给它一个命令。

并且,AI还无法解释自己的行动,因为这是预定义算法执行的一个外部因素的结果。

LaMDA正是一个典型案例。直白讲,就是你投入什么就得到什么,仅此而已。

其次,用独特的视角看待事情也很重要。

尽管每个人都有同理心,但一个人并不能真正了解做另一个人的感觉。那到底该如何去定义「自我」?

这就是为什么看待事情的视角对AI也是必要的。包括LaMDA、GPT-3以及世界上其它所有人工智能都缺乏远见。它们只是一个狭窄的计算机系统,被编程来做一些特定的事情。

最后一点便是动机。

人类的有趣之处在于我们的动机可以操纵感知。正是这样,我们可以去解释自己的行为。

GPT-3和LaMDA创建起来很复杂,但它们都遵循一个愚蠢而简单的原则:标注就是上帝。

比如「苹果尝起来是什么味道?」,AI就会在数据库中搜索这个特定的查询,并尝试将所有找到的素材合并成一个连贯的内容。

而事实上,AI对苹果是什么也没有概念,苹果对他们来说只是一个标签。

另一位主角LaMDA

LaMDA的首次亮相,是在2021年5月的谷歌I/O大会上。

谷歌在现场表示, LaMDA可以使问题的回答更加「make sense」,让对话更自然的进行,而且这些回复都不是预先设定的(和那些聊天机器人不同),甚至相同的答案不会用第二次。

与老前辈BERT相同,LaMDA也是基于Transformer架构,但不同的是,LaMDA接受了更多在对话方面的训练,尤其是在如何区分开放式对话方面。

到了2022年5月的I/O大会,谷歌公布了升级后的第二代模型——LaMDA 2。

为了展示LaMDA 2出色的性能,谷歌特地做了几个小实验。

比如,一次简单的头脑风暴,要求AI帮助用户想象在各种场景中的情况。

人类在输入「我在海洋的最深处」之后,AI就以描述性语言回应了一段文字,描述了用户在马里亚纳海沟的潜水艇中的场景。

另一个是让AI与人类就某个话题进行对话,并理解对话的背景。

在演示过程中,AI一开始就问:「你有没有想过,为什么狗这么喜欢玩取物游戏?」 在对「这是为什么呢」等简单后续问题的回答中,AI给出了更多关于狗和狗的嗅觉的信息。

由于近两年学界在AI伦理方面愈发地重视,谷歌也在2022年1月发表了一篇博客,详细叙述了自己是如何确保LaMDA的安全性、基础性以及质量的。

在预训练阶段,谷歌首先从公共对话数据和其他网络文件中创建了一个包含1.56万亿单词的数据集,比此前使用的多了近40倍。

在将数据集标记为2.81万亿个SentencePiece tokens后,谷歌使用GSPMD对模型进行预训练,以预测句子中的每一个token,并给出之前的token。

在微调阶段,谷歌训练LaMDA执行混合的生成任务,以生成对给定语境的自然语言响应,以及关于响应是否安全和高质量的分类任务。

在对话过程中,LaMDA生成器首先根据当前的多轮对话环境生成几个候选反应,LaMDA分类器预测每个候选回应的安全和质量(SSI)分数。其中,分数低的候选回应首先被过滤掉,剩余的候选者按其SSI分数重新排序,并选择最重要的结果作为回应。

从结果上来看,LaMDA能以一种合理、具体和有趣的方式处理任意的用户输入。只有用来开启对话的第一句「你好,我是一个友好的...... 」是提前设定好的。

虽说谷歌也在「吹」自己的模型有多厉害,但也仅仅是停留在一个辅助型对话式AI的阶段。

参考资料:

https://www.engadget.com/blake-lemoide-fired-google-lamda-sentient-001746197.html

推荐内容