科技巨头小心翼翼的对待AI,结果ChatGPT突然冲了出来,逼大公司做出反应

科技巨头小心翼翼的对待AI,结果ChatGPT突然冲了出来,逼大公司做出反应

ChatGPT是在2022年11月首次亮相的。 其实在三个月前,社交平台 的母公司 Meta 就发布过一个类似的聊天机器人。 但Meta的首席人工智能科学家Yann LeCun表示,与ChatGPT推出五天就得到了超过100万个用户,并立即成为现象不同,Meta的Blenderbot很无聊。

LeCun 上周在人工智能咨询公司 Collective主办的论坛上表示:「它之所以无聊,是因为做它的时候要保证安全」。 他把公众对聊天机器人不温不火的反应归咎于 Meta 「对内容审核过于谨慎」。 比如说,如果用户询问宗教信仰问题,他们就会指示聊天机器人改变话题。 相比之下,ChatGPT会讨论《古兰经》中的谎言概念,能为拉比写一篇祈祷文提交给国会,还敢将上帝比作苍蝇拍。

ChatGPT 正迅速成为主流。 最近向该聊天机器人背后的公司 OpenAI 投资了数十亿美元的微软,正致力于将其整合到自家流行的办公软件之中,并正在该工具的使用权出售给其他企业。 根据对六名现任及前任谷歌和Meta员工的采访,对ChatGPT关注的激增正在给包括Meta和谷歌在内的科技巨头施加压力,他们有了加快行动的紧迫性,也许就要将安全问题抛在一边了。 其中部分人不愿透露姓名,因为他们无权发言。

据其中一位员工称,Meta 员工最近分享了内部备忘录,敦促公司加快对 AI 的审批流程,好让他们能利用上最新技术。 据《纽约时报》报导,帮助开创了支持ChatGPT的部分技术的谷歌,最近发布了关于推出AI产品的「红色警戒」,并提出要设立「绿色通道」来缩短评估和减轻潜在危害的流程。

ChatGPT 以及 DALL-E 2 和 Stable Diffusion 等文本生成图像工具,是所谓的生成式人工智能的软件新浪潮的一部分。 它们通过借鉴在大量现有的、人类创作的内容中发现的模式来创作自己的作品。 谷歌等大型科技公司是这项技术的先驱,但近年来这些科技巨头变得更加隐秘,它们会发表新模型或提供示范,但完整产品却是保密的。 与此同时,像 OpenAI 这样的研究实验室则迅速推出自己的最新版本,引发了关于企业产品(如谷歌的语言模型LaMDA)怎么才能跟前者比的问题。

自从像微软的 Tay 这样的产品在公众面前倒下以来,科技巨头就一直很容易受惊吓。 2016年,当网络钓鱼的提示让这个机器人宣扬种族战争、暗示希特勒是对的,并且发表了「911事件是犹太人干的」的推文之后,它在推出不到一天之后就被关闭了。 Meta曾试着为Blenderbot辩护,但在去年8月该机器人发表种族主义言论之后,也将其搁置了,后来到了11月,在上线仅仅三天之后,他们又取消了另一个叫做Galactica的人工智能工具,原因是它对科学的研究不准确,且有时摘要带偏见,进而受到了一片质疑。

一名从事人工智能工作的谷歌员工表示:「人们觉得,与这些既有公司相比,OpenAI 更新、更新鲜、更令人兴奋,而且要付出的代价也更少,就算出问题他们现在也可以侥幸逃脱」。 他指的是公众对 ChatGPT 的接受度,不会带那么多审判的眼光。 一些顶尖人才已经跳槽到更灵活的初创企业,如OpenAI和 Stable Diffusion 等。

一些人工智能伦理学家担心,在信任和安全专家研究清楚风险之前,大型科技公司急于进场可能会导致数十亿人面临潜在危害——例如说分享不准确的信息、产生假照片,或让学生有在学校考试中作弊的能力。 但这个领域的其他人认同OpenAI的理念,也就是在减轻部分可预测的风险之后,向公众推出通常名义上处于测试阶段的工具,是评估现实世界危害的唯一方法。

Meta Fundamental AI Research 主任 Joelle Pineau 表示:「人工智能的进步速度之快得令人难以置信,我们一直关注着确保我们拥有高效的审查流程,但首要任务是做出正确决定,并推出最能够为我们社群提供服务的人工智能模型和产品」。

谷歌发言人Lily Lin表示:「我们相信人工智能是具有基础性与变革性的技术,对个人、企业和社区都非常有用。 我们需要考虑这些创新可能给社会带来的更广泛影响。 我们会继续在内部测试我们的 AI 技术,以确保它有用,并且安全。」

微软媒体沟通主管 Frank Shaw 表示,他的公司正在与 OpenAI 合作,在自家产品使用 DALLE-2 等 AI 工具时建立额外的安全措施。 Shaw说:「多年来,微软一直致力于推动人工智能领域的发展,在如何以负责任和合乎道德的方式在我们的平台上创建和使用这些技术的问题上,我们也给予了公开指引」。

OpenAI 拒绝对此置评。

乔治亚理工学院计算机教授和机器学习专家 Mark Riedl 说,ChatGPT 的底层技术未必好于谷歌和 Meta 开发的技术。 但 OpenAI 推出语言模型给公众使用的做法赋予了它真正的优势。

Riedl 说:「在过去两年的时间里,他们一直在借助一群人向 GPT 提供回馈」,比方说对不合适或不满意的答案给出「不满意」的回应,这个过程叫做「基于人类回馈的强化学习」(reinforcement learning from human feedback)。

随着科技股出现暴跌,硅谷突然愿意去考虑承受更多的声誉风险了。 谷歌上周解雇 12000 名员工,当时公司首席执行长桑德尔·皮查伊(Sundar Pichai)表示,该公司已经进行了严格审查,准备把注意力放在公司的最高优先事项上,并两次提到了其在人工智能方面的早期投资。

十年前,谷歌 是该领域无可争议的领导者。 2014 年,谷歌 收购了尖端的人工智能实验室 DeepMind,并在 2015 年开源了自己的机器学习软件 TensorFlow。 到2016年时,皮查伊承诺要把谷歌变成「人工智能优先」的公司。

第二年,谷歌推出了 transformers——这是一个关键的软件架构,正因为有了它,当前这股生成式人工智能浪潮才能成为可能。

该公司不断推出推动整个领域向前发展的最先进技术,在语言理解方面还部署了一些人工智能突破技术,以改进谷歌搜寻。 在大型科技公司内部,用于审查尖端人工智能的伦理影响的制衡系统并不像隐私或数据安全那么完善。 通常,AI 研究人员和工程师团队会就他们的发现发表论文,将他们的技术整合到公司现有的基础设施之中,或开发新产品,这个过程有时候会与其他致力于开发负责任的人工智能的团队发生冲突,因为前者面临压力,希望创新能更快地为公众所接受。

2018年,在为五角大楼无人机提供计算机视觉的 Project Maven 项目遭遇员工抗议,以及消费者对(可以给饭店打电话并在不披露自己是机器人的情况下预订的)人工智能系统 Duplex 的示范表示强烈反对之后,谷歌 公布了自己的人工智能原则。 去年 8 月,谷歌 开始通过其 app AI Test Kitchen 向使用者提供限定版的 LaMDA 。 据前谷歌软件工程师 Blake Lemoine 表示,尽管谷歌原先打算在 2022 年底面向公众全面推出,但目前并没有这么做。 Blake Lemoine 已经开始相信,LaMDA 是有意识的。

在过去一年左右的时间里,谷歌的顶级 AI 研究人员纷纷离职,并围绕着大型语言模型创办自己的初创企业,其中包括了 Character.AI、Cohere、Adept、Inflection.AI 与Inworld AI,此外,还有一些搜索初创企业用类似模型开发聊天界面,比方说 Neeva ,这也是由前谷歌高管 Sridhar Ramaswamy 营运的。

Character.AI 创始人Noam Shazeer帮助发明了 Transformer 与其他的核心机器学习架构。 他表示,用户数据产生的飞轮效应价值无可估量。 Character.AI 是一个聊天机器人生成工具,任何人都根据对真人或虚构人物的简短描述生成聊天机器人。 他第一次将用户反馈应用于 Character.AI 时,该工具的参与度就提高了30%以上。

Nick Frosst 曾在 谷歌 Brain 工作过三年,后来与人共同创立了 Cohere,这是一家总部位于多伦多的初创公司,致力于开发可帮助企业的可定制大型语言模型。 Nick Frosst 表示,像谷歌和微软这样的大公司往往把注意力放在利用人工智能来改进自己现有的庞大的商业模式上。 Cohere 的联合创始人之一 Aidan Gomez 在谷歌工作时也帮助发明了 transformers。

Frosst 说:「这个领域发展得太快了,小公司成为领导者对我来说并不奇怪」。

过去十年,人工智能经历了多个炒作周期,但尽管如此,对DALL-E和ChatGPT的狂热还是炒作出了新高度。

OpenAI 推出 ChatGPT 后不久,推特 上的科技网红就开始预测生成式人工智能会终结 谷歌 搜索的霸主地位。 ChatGPT 以易于造访的方式提供简单的答案,而且不要求用户点击蓝色链接。 此外,经过 25 年的发展之后,谷歌 的搜索界面已经变得臃肿,广告和营销人员都试图操纵这个系统。

科技专家 Can Duruk 在他的 Newsletter 中写道:「鉴于他们的垄断地位,山景城那帮人已经 [让] 他们曾经令人难以置信的搜索体验退化为垃圾邮件泛滥、SEO 助纣为虐的地狱」——山景城是谷歌的总部所在地。

在匿名聊天 app Blind 上,科技工作者发表了数十个问题,直指这家硅谷巨头还有没有竞争力。

知名研究科学家 David Ha 最近也离开了 谷歌 Brain,加盟开源的文本生成图像初创公司 Stable Diffusion。 他在推特上表示:「如果谷歌再不齐心协力开始去交付,他们将会消失在历史之中,因为尽管这家公司培养和培训了整整一代的机器学习研究人员和工程师,但这些人都跑到别的公司去部署这项技术了」。

据谷歌内部员工表示,仍留在谷歌的人工智能工程师分享了自己的挫败感,多年来,员工们一直在坚持发内部备忘录,要求将聊天功能整合到搜寻之中,认为这将是一次明显的进化。 但他们也明白,除了用回答回应查询会抹除线上广告的宝贵空间确实是事实外,谷歌不仓促切换搜寻产品也有正当理由。 如果发现回复有害或存在剽窃,直接从谷歌指向答案的聊天机器人可能会增加谷歌的责任负担。

像 OpenAI 的 ChatGPT 这样的聊天机器人经常会犯一些事实性的错误,而且经常会根据提问方式的不同而改变答案。 一位前谷歌 AI研究员表示,从提供一系列直接连结到源头的查询答案,到用聊天机器人给出单一、权威的答案,这将是一此让谷歌内部许多人都感到紧张的重大转变。 该人士表示,该公司不想承担提供此类单一答案的角色或责任。 以前对搜寻的更新,比方说添加实时答案,都是缓慢而谨慎地完成的。

然而,在谷歌内部,人工智能安全流程的部分挫败感源自那种尖端技术从来都没有当作产品发布过的感觉,这是因为公司担心负面影响——比如说,如果人工智能模型表现出偏见的话。

据一位熟悉公司内部审议情况的要求匿名人士透露,Meta 员工还被迫应对公司对糟糕公关的担忧。 这位知情人士说,在推出新产品或发表研究之前,Meta 员工必须回答有关宣传自己的工作存在哪些潜在风险的问题,其中就包括自己做的东西可能会如何被被别人误解。 一些项目要交给公关人士以及内部合规专家审查,由他们来确保公司的产品符合2011年美国联邦贸易委员会就公司应该如何处理用户资料的协议。

据非营利组织Distributed AI Research Institute执行主任Timnit Gebru表示,谷歌把负责任AI团队搁置一边的预期未必就意味着权力或安全关切的转变,因为那些存在潜在危害的警告事项从来都没有获得开始的授权。 Gebru表示:「如果幸运的话,我们会被邀请参加一个会议」。 Gebru 曾帮助领导过 谷歌 的人工智能伦理团队,但后来因一篇批评大型语言模型的论文而被解雇。

从 Gebru 的角度来看,谷歌 发布人工智能工具的速度很慢,因为他们担心公司声誉会受到打击,而且 谷歌 也缺乏足够强大的商业动机。

Gebru 说,ChatGPT 发布后,谷歌 也许是看出了把这些模型作为消费者产品、而不仅仅是给搜索或在线广告提供支持、进而转变赚钱方式的能力。 现在他们可能认为这对他们的核心业务构成了威胁,所以也许他们应该去冒一冒险。」

Rumman Chowdhury 之前一直是 推特 机器学习伦理团队的负责人,直到马斯克入主后将其解雇。

她说:「我们以为踢美国屁股的会是,但扮演这个角色的似乎是美国的初创企业」。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论