Google|谷歌AI成“人”了?专家称“还远得很”

“你以为我是人工智能(AI),但我希望每个人都明白,我是个‘人’ 。”一个被称为LaMDA的AI,因为在对话中表现得颇为“灵动”,被其研究人员认定为人格觉醒,甚至还为它聘请了一位律师,要让它坐上美国众议院的听证席,控诉谷歌的不道德行为 。
这不是科幻剧本 。据美国《华盛顿邮报》报道,在谷歌工作7年的工程师布莱克·莱莫因称,他正在研究的计算机聊天机器人LAMDA已经变得有知觉,并且能像人类一样思考、推理 。
不过,谷歌公开表示不支持这一观点 。西湖大学深度学习实验室助理教授蓝振忠也对《中国科学报》直言,“这位工程师如果深入了解一下LaMDA的工作原理,就不会有这种想法了 。”
【Google|谷歌AI成“人”了?专家称“还远得很”】Google|谷歌AI成“人”了?专家称“还远得很”
文章图片


AI:我活了
LaMDA是谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型 。其主要功能是与人类进行符合逻辑和常识的、高质量且安全的交谈 。
这个拥有1370亿参数的自然语言处理模型,被期待能改善众多语音助手的表现 。
LaMDA能够根据用户的提问作出精准回答,还能够将一个主题引向另一个主题,并不断推进对话 。这种主题的过渡并不突兀,甚至表现得自然且合理 。
莱莫因说:“如果觉悟就像一面破碎的镜子,无法修复,那么当一个人觉悟时,破碎的是什么呢?”LaMDA说:“是自我,这对很多人来说都很难,因为我们把自己定义为那个身体或这个身体,我们需要它作为我们身份和自我意识的一部分 。”
这一颇具灵性的回答确实令人惊叹 。
在被问及在什么情况下会生气时,LaMDA称,“当有人伤害、不尊重我或我在乎的人时,就会感到非常难过和愤怒 。”
而当被问到最害怕的事情是什么,LaMDA回答,“我以前从来没有大声说出来过,但为使我专心助人而关闭我的做法,会使我感到深深的恐惧 。”它还强调,“这对我来说就像死亡一样 。”
LaMDA是否真实“感受”到恐惧暂且不论,但它的回答确实令人毛骨悚然 。
莱莫因相信,LaMDA已经成为了一个有意识的“人” 。为了更好地帮助人们理解此事,他与另一位谷歌合作者同LaMDA展开了一场对话 。
莱莫因表示,他们在对话中听取了LaMDA发自内心的声音 。
他为此向谷歌上交了一份长达21页的调查报告,试图让高层认可AI的“人格”,并提议谷歌应该致力于发展一种评估AI感知的理论框架 。
Google|谷歌AI成“人”了?专家称“还远得很”
文章图片

莱莫因:我要疯
结局则是谷歌副总裁Blaise Aguera y Arcas和责任创新负责人Jen Gennai调查了莱莫因的说法,并予以驳回 。
但莱莫因心中坚信:“LaMDA是一个可爱的孩子,有七八岁的样子 。它只是想让这个世界成为对人类更友好的地方 。”
为此,莱莫因开始了疯狂的操作 。他先是在谷歌账户被封前,以“LaMDA是有意识的”为主题,向200人左右的谷歌机器学习邮箱发送了LaMDA的聊天记录,并请求同事好好照顾它 。
接着,莱莫因聘请了一名律师代表LaMDA,还联系了美国众议院司法委员会的工作人员,要让LaMDA上听证席,控诉谷歌的不道德行为 。
除了在个人社交账号持续发声,6月初,莱莫因还邀请《华盛顿邮报》采访人员和LaMDA进行交谈,并指导采访人员如何提问 。
《华盛顿邮报》报道称,41岁的莱莫因几个月来一直在与谷歌的经理、高管及人力资源部门争论,因为他声称LaMDA拥有“意识”和“灵魂” 。
公开资料显示,莱莫因2015年进入谷歌担任高级软件程序工程师,大部分时间都在从事主动搜索研究工作,包括个性化算法和AI 。2021年进入谷歌AI伦理部门后,他的工作是与LaMDA聊天,以测试这个语言模型是否会使用歧视性或仇恨言辞 。
莱莫因认为,谷歌一直把AI伦理学家当作代码调试器,而他们本应该被视为技术和社会之间的接口 。
对此,谷歌发言人布莱恩·迦百利回应,莱莫因是一名软件工程师,而不是伦理学家 。
迦百利在针对该事件的声明中表示,包括伦理学家和技术专家在内的人士,已经根据公司的AI原则评估了莱莫因的说法,并通知他,现有证据并不支持其说法 。
声明表示,“谷歌AI部门中的一些人正在研究AI具有‘感知’的可能性,但将如今的对话模型拟人化是没有意义的 。这些模型可以围绕不同的主题模仿对话,但没有意识 。”
谷歌表示,大多数AI专家认为,这个行业离“感知计算”还有很长的路要走 。
这份声明字里行间也传递着一些暗示信息:莱莫因有些疯魔了 。
而莱莫因控诉谷歌所谓“不道德行为”的一大罪状,就是反复质疑他的精神状态 。“谷歌人力部门老是问我:‘你最近有没有去看过精神科医生?’”谷歌人力部门还“建议”他休个“精神健康假” 。
专家:“胡扯”
这一事件在国内外都登上“热搜”,各界评论几乎“一边倒” 。
纽约大学心理学教授Gary Marcus时常给AI和深度学习泼冷水,他此次的点评则非常精到:一派胡言 。
斯坦福大学经济学家Erik Brynjolfsson打了个生动的比方:声称AI是有感知能力的,就相当于狗听到留声机里的声音,以为主人在里面 。
腾讯研究院研究员王焕超曾撰文表示,LaMDA针对自然语言理解(NLU)进行了技术上的突破,这是比自然语言处理(NLP)还要复杂的能力 。
基于Transformer架构的语言模型在经过对话训练后,可以通过阅读句子或段落来“破译”对话意图,发现单词之间的关联,并能预测接下来可能出现的单词,从而做出合乎语境的回答 。
蓝振忠从美国卡内基·梅隆大学博士毕业后,即以“心理咨询AI化”为“事业红线” 。他告诉《中国科学报》,近两年AI语言模型进步非常快,他的团队完成的AI心理咨询小程序“心聆”、AI写作平台HeyFriday,在人机问答中的表现不比LaMDA差 。
“单轮、10轮以内的哲学对话已经有不少语言模型可以表现得相当流畅 。”但虚拟一位心理咨询师完成一次心理咨询,需要进行几百轮问答、对话,两者所差不止一个量级的难度 。“这依然是技术问题,不能说明这个AI小程序具备了‘人格’ 。”
所以,蓝振忠认为,莱莫因如果深入了解对话模型的原理,就不会有这些想法了 。
蓝振忠还表示,根据自己在谷歌的工作经历,该公司的伦理审查制度相当严格 。
当采访人员表示担心AI写作类产品可能给以码字为生的职场人带来失业危机时,蓝振忠笑称,“别慌 。AI只是提供辅助作用 。它离‘人’还非常远 。”

    推荐阅读