AI大赛中Google、微软把“道德”放在哪里? 内部员工曾因伦理担忧曾试图阻止

AI大赛中谷歌、微软把“道德”放在哪里? 内部员工曾因伦理担忧曾试图阻止

当今最热的科技话题非AI莫属。 但是,并非所有人都对此满怀期待。 据媒体的最新曝光,两名前谷歌员工表达了他们对公司发布新的AI聊天机器人的担忧。

今年3月,两名负责审查AI产品的谷歌员工试图阻止该公司推出自己的AI聊天机器人,他们认为该技术会产生「不精准和危险的陈述」。

几个月前,微软的伦理学家也提出了类似的担忧。 他们认为,这种AI聊天机器人将令用户批判性思维的退化,同时可能会充斥虚假信息和侵蚀“现代社会的事实基础”。

尽管如此,微软依然在2月发布了其内建在Bing搜索引擎的聊天机器人; 一个月后,谷歌在3月底发布了其Bard聊天机器人。

媒体分析指出,这些通常在规避风险方面十分谨慎的大公司,之所以在AI领域一反常态采取激进的举措,是为了在下一场可能的科技竞赛中占得先机。

ChatGPT的成功,导致企业愿意冒更大风险

根据多名员工及内部文件的阐述,ChatGPT的惊人成功导致微软和谷歌愿意承担更大的风险。 微软技术主管Sam Schillace上个月传送的一封内部电子邮件称,第一个推出相关产品的公司将是长期赢家,有时候两家公司的差距仅仅以周为单位。

自发布以来,围绕这些AI机器人的伦理争议就持续不断。 包括马斯克在内的1000多名技术领域的研究人员和意见领袖不久前发布一封公开信表达了对AI带给社会影响的担忧,他们呼吁放慢相关技术的发展步伐。

监管机构已经准备对AI技术进行干预。 欧盟提议立法监管人工智能,意大利上周暂时禁止ChatGPT。 在美国,白宫和国会也在寻求对AI更强有力的监管。

更令外界担忧的是,上个月底,微软、Meta、谷歌、亚马逊和推特等公司都裁减了“负责任的人工智能团队”成员,这些团队主要为使用人工智能的消费产品的安全性提供建议。

业内专家对此表示,各大科技公司裁减相关人员的决定令人担忧,因为随着越来越多的人开始试用新的人工智能工具,人们发现了这项技术可能被滥用。 在OpenAI推出ChatGPT并取得成功后,人们的这种担忧进一步加剧。

DeepMind的前研究员也表示忧心

为了追上微软等对手,Alphabet CEO 皮查伊(Sundar Pichai)上周四宣布,把谷歌研究的大脑团队和 Alphabet 旗下 AI 公司 DeepMind 合并为一个部门。 DeepMind CEO 杰密斯・哈撒米斯(Demis Hassabis)将负责领导新合并的部门。

这一项任命,使得DeepMind在谷歌的战略中占有更重要的位置。

不过,在此同时,DeepMind的前伦理和政策研究员、研究机构Ada Lovelace Institute副主任Andrew Strait表示:令人震惊的是,现在可以说是比以往任何时候都需要更多这类团队的时候,但这些团队的成员被解雇了。

今年1月,微软解散了其「道德和社会」团队,该团队领导了微软在相关领域的早期工作。 微软表示,裁员人数不到10人,公司负责人工智能的办公室仍有数百人在工作。

微软人工智能业务主管Natasha Crampton称:「我们已经显著增加了’负责任的人工智能’努力,并努力在整个公司范围内将其制度化。」

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论