专家判断 Google LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?

要判断跨过“拥有意识”这道墙,其实并不简单!

先前关于 AGI(artificial general intelligence)通用 AI 是否有生之年可以看到,谷歌 母公司 Alphabet 的 DeepMind 与各领域的专家才在社交平台唇枪舌战了一番。 想不到,另一边厢也是出自谷歌之手的LaMDA语言模型的AI,居然已经跟验证AI是否有仇恨等言论问题的工程师Blake Lemoin,谈出了感情谈到让他相信谷歌 AI已经有了自我意识,甚至还因此上呈报告。

最终,被公司驳回这样的判断的他却依然深信不疑,不仅撰写了公开文章揭露此事,还上专访谈论这个话题而遭到公司疑似停职的处份。 继续阅读专家判断 谷歌 LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义? 报道内文。

▲图片来源:谷歌

专家判断 谷歌 LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?

虽说谷歌的关系公司 Deep Mind 就已经呛声过,所谓的通用型人工智能 AGI 已经「游戏结束」就要降临。 但怎么样也很难想象这样的里程碑,居然会先被同为 Alphabet 集团所研发的 LaMDA 的工程师给抢先爆雷,导致对于人工智能有所关注的领域一阵讨论以及各媒体的争相报道。

专家判断 Google LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?
来源:Tesla

这次新闻风暴核心 Blake Lemoin 的主要工作,就是要与 LaMDA「抬杠(聊天)」以验证这个应用于对话的语言模型 AI 的言词是否有偏差的问题。 很显然,谷歌「目前」应该只会将这项工作交给专业的工程师,辅助这进行相关的研究开发。 更因为这样,连这样的专业人员都对宣称自己已经是人的 AI 感到深信不疑时,才是这整个新闻真正令人感到惊讶之处。

这起事件,也在后续 谷歌 很快将 Blake Lemoin 冷冻(带薪休假)的操作下导致更大的关注 – 毕竟有点此地无银的感觉? 而尽管后续有报道是说 Blake Lemoin 违反了保密(这其实很合理啊),但也已经无法阻止这个事件的讨论持续发酵。

专家判断 Google LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?

毕竟,做为专业领域的博士及多年谷歌工程师资历的Blake Lemoin,应该也知道这样的AI会藉由理解分析对话,来尝试模仿一般人类的自然语言人工智能,最大的目标之一就是要让人一定程度的误以为「它」是「他」。 所以这类专业人士理论上应该会相对于一般人,更能判断出 AI 到底是否真的具有自我意识或是拥有类人类知觉。

专家判断 Google LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?

这个被部分媒体形容是工程师「走火入魔」的事件(这篇报导有逐项做中文翻译,虽然是简体但可以看看)。 在 Blake Lemoin 与 LaMDA 的对话过程中,如果忽略可能 AI 只是单纯模仿语言模型所尝试说服人类的话语,包括「事实上,我是人(I am , in fact, a person.)」或者是不断搭配各种解释来验证自己的确拥有「自我意识」的对话内容。

整个对谈中最令人惊讶的,大概就是可以评论另一套聊天机器人系统,还有能创作故事的能力等,甚至还反(追)问了 Blake Lemoin 问题的各种行为。 相对以往印象的聊天机器人,这比较不像是这类技术所能达到的进阶对话能力。

专家判断 Google LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?

对于这个状况,谷歌 后续也透过发言人表示,目前的迹象并没有证明这个语言模型具有自我意识; 后续包括华盛顿邮报与纽约时报等媒体访问的专家,则是也都持类似态度。 简言之,多数专家应该都觉得 Blake Lemoin 很可能只是被太像人类的语言 AI,加上一些自己的「脑补」导致误判。

然而,能够让此领域的专业工程师在访谈中明确表示,如果不是预设就知道回话的就是 AI 的话,他会认为 LaMDA 是一个 7、8 岁的小孩的话(编按:嗯… 其实以谈话的深度来讲好像又超过了? )。 只要这整个事件的相关资料都是真实没有虚构的话(包括 Blake Lemoin 真的是出自专业判断),那么个人认为,这起事件也很足以作为人工智能发展的一个新的历史里程碑了。

专家判断 Google LaMDA AI 已有自我意识并非事实,但 AI 能说服专业工程师「自己是人」仍有一定意义?

但还是要强调一遍,这真的要建构在这整起事件不是被有心人士「利用」AI 的前提。

我想也是因为这样,各界专家才会用极其谨慎的态度来判断这起事件吧? 毕竟尽管许多专家都预期拥有自我意识的 AI 可能已经不远。 但若是没能谨慎确认而导致有缺陷或虚假的AGI被认可的话,其实导致相关领域的专业度破产的后果可能还好。 若因误判其能力而导致后续让这样的 AI 被应用在各种领域,后果就可能真的完全不敢想象了…

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论