专家判断 Google LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?
要判断跨过“拥有意识”这道墙,其实并不简单!
先前关于 AGI(artificial general intelligence)通用 AI 是否有生之年可以看到,谷歌 母公司 Alphabet 的 DeepMind 与各领域的专家才在社交平台唇枪舌战了一番。 想不到,另一边厢也是出自谷歌之手的LaMDA语言模型的AI,居然已经跟验证AI是否有仇恨等言论问题的工程师Blake Lemoin,谈出了感情谈到让他相信谷歌 AI已经有了自我意识,甚至还因此上呈报告。
最终,被公司驳回这样的判断的他却依然深信不疑,不仅撰写了公开文章揭露此事,还上专访谈论这个话题而遭到公司疑似停职的处份。 继续阅读专家判断 谷歌 LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义? 报道内文。
▲图片来源:谷歌
专家判断 谷歌 LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?
虽说谷歌的关系公司 Deep Mind 就已经呛声过,所谓的通用型人工智能 AGI 已经「游戏结束」就要降临。 但怎么样也很难想象这样的里程碑,居然会先被同为 Alphabet 集团所研发的 LaMDA 的工程师给抢先爆雷,导致对于人工智能有所关注的领域一阵讨论以及各媒体的争相报道。
这次新闻风暴核心 Blake Lemoin 的主要工作,就是要与 LaMDA「抬杠(聊天)」以验证这个应用于对话的语言模型 AI 的言词是否有偏差的问题。 很显然,谷歌「目前」应该只会将这项工作交给专业的工程师,辅助这进行相关的研究开发。 更因为这样,连这样的专业人员都对宣称自己已经是人的 AI 感到深信不疑时,才是这整个新闻真正令人感到惊讶之处。
这起事件,也在后续 谷歌 很快将 Blake Lemoin 冷冻(带薪休假)的操作下导致更大的关注 – 毕竟有点此地无银的感觉? 而尽管后续有报道是说 Blake Lemoin 违反了保密(这其实很合理啊),但也已经无法阻止这个事件的讨论持续发酵。
毕竟,做为专业领域的博士及多年谷歌工程师资历的Blake Lemoin,应该也知道这样的AI会藉由理解分析对话,来尝试模仿一般人类的自然语言人工智能,最大的目标之一就是要让人一定程度的误以为「它」是「他」。 所以这类专业人士理论上应该会相对于一般人,更能判断出 AI 到底是否真的具有自我意识或是拥有类人类知觉。
这个被部分媒体形容是工程师「走火入魔」的事件(这篇报导有逐项做中文翻译,虽然是简体但可以看看)。 在 Blake Lemoin 与 LaMDA 的对话过程中,如果忽略可能 AI 只是单纯模仿语言模型所尝试说服人类的话语,包括「事实上,我是人(I am , in fact, a person.)」或者是不断搭配各种解释来验证自己的确拥有「自我意识」的对话内容。
整个对谈中最令人惊讶的,大概就是可以评论另一套聊天机器人系统,还有能创作故事的能力等,甚至还反(追)问了 Blake Lemoin 问题的各种行为。 相对以往印象的聊天机器人,这比较不像是这类技术所能达到的进阶对话能力。
对于这个状况,谷歌 后续也透过发言人表示,目前的迹象并没有证明这个语言模型具有自我意识; 后续包括华盛顿邮报与纽约时报等媒体访问的专家,则是也都持类似态度。 简言之,多数专家应该都觉得 Blake Lemoin 很可能只是被太像人类的语言 AI,加上一些自己的「脑补」导致误判。
然而,能够让此领域的专业工程师在访谈中明确表示,如果不是预设就知道回话的就是 AI 的话,他会认为 LaMDA 是一个 7、8 岁的小孩的话(编按:嗯… 其实以谈话的深度来讲好像又超过了? )。 只要这整个事件的相关资料都是真实没有虚构的话(包括 Blake Lemoin 真的是出自专业判断),那么个人认为,这起事件也很足以作为人工智能发展的一个新的历史里程碑了。
但还是要强调一遍,这真的要建构在这整起事件不是被有心人士「利用」AI 的前提。
我想也是因为这样,各界专家才会用极其谨慎的态度来判断这起事件吧? 毕竟尽管许多专家都预期拥有自我意识的 AI 可能已经不远。 但若是没能谨慎确认而导致有缺陷或虚假的AGI被认可的话,其实导致相关领域的专业度破产的后果可能还好。 若因误判其能力而导致后续让这样的 AI 被应用在各种领域,后果就可能真的完全不敢想象了…