才隔一天OpenAI 董事会又急找Altman讨论重新回来担任CEO、员工质疑是否「政变」

起风了? 才隔一天OpenAI 董事会又急找Altman讨论重新回来担任CEO、员工质疑是否「政变」

Sam Altman周五突然被OpenAI董事会解雇,使这家最热门的科技初创公司陷入持续的危机。

不过,根据The Verge的报道,据多位知情人士透露,OpenAI 董事会正在与 Sam Altman 讨论重返公司担任执行长的事宜。 其中一位人士表示, Altman周五在没有任何通知的情况下被董事会突然解雇,他对董事会对他提出回归的请求感到「矛盾」,并希望进行重大的治理变革。

Altman 在被赶下台后仅一天就与公司进行了会谈,这表明 OpenAI 在没有他的情况下正处于危机状态。

内部员工求去

在被解雇几小时后,OpenAI 总裁兼前董事会主席Greg Brockman 辞职,两人一直在与朋友和投资者讨论创办另一家公司的事宜。 周五,一群资深研究人员也辞职了,接近OpenAI的人士表示,更多的离职人员正在酝酿中。

除了内部面临员工的不信任,对外,投资者的态度也可能是造成OpenAI董事会态度转变的原因。

投资者生气了? 力挺Altman

OpenAI最大的投资者微软,在 Altman 被解雇后不久发表声明称,该公司「仍然致力于」与这家人工智能公司的合作关系。 然而,OpenAI的投资者没有收到提前警告,也没有机会对董事会罢免Altman的决定发表意见,引来投资者的不满。

Altman 身为公司的代言人和人工智能领域最杰出的代言人,在竞争对手竞相追赶前所未有的 ChatGPT 崛起之际,他的下台让 OpenAI 的未来陷入不确定性。 也让内部员工陆续掀起一股离职潮。

根据金融时报报导,指出包含 Thrive Capital、Tiger Global 和 Sequoia Capital 等 OpenAI 的主要投资者,已经在周末与微软、及 Altman 联系,以探索下一步的可能性。 其中一位OpenAI的主要投资者,表示有信心摆平(dispose)董事会、并让Altman、Brockman复职。

但根据另外两位创投基金投资者,他们会同时押注双方,换言之,无论Altman选择回到OpenAI、还是开启一份新事业,都承诺支持他。 OpenAI的早期风险投资者Vinod Khosla在18日晚间就表示,他希望看到Altman回到OpenAI。

OpenAI 目前的董事会由首席科学家 Ilya Sutskever、Quora 首席执行官 Adam D’Angelo、前 GeoSim Systems 首席执行官 Tasha McCauley 以及乔治城安全与新兴技术中心策略总监 Helen Toner 组成。 与传统公司不同,董事会的任务不是最大化股东价值,而且他们都不持有OpenAI的股权。 相反,他们宣称的使命是确保创建「广泛有益的」通用人工智能(AGI)。

据多个消息来源称,Sutskever也是OpenAI的联合创始人并领导其研究人员,他在本周罢免Altman的过程中发挥了重要作用。 消息人士称,他在政变中所扮演的角色表明公司研究部门和产品部门之间存在权力斗争。

OpenAI紧急召开员工大会,员工质问「是否政变」

OpenAI管理层大换血,在换血后,OpenAI内部紧急召开了一场员工大会,在这场紧急员工大会上,OpenAI 联合创始人兼董事会成员Ilya Sutskever主要负责回答问题。

右为Ilya Sutskever▲ 右为Ilya Sutskever

会上两名员工询问此次解雇是否构成「政变」或「敌意收购」,但被Ilya Sutskever否定,他将问题带回了安全议题本身。 事实上在罢免事件发生前,员工内部已经就该公司开发人工智能是否足够安全进行过争论。

对于一些员工来说,这个问题暗示Sutskever可能认为Altman在将该软件商业化方面动作太快——该软件已经成为一项价值数十亿美元的业务——而牺牲了潜在的安全问题。

Ilya Sutskever在谈到「政变」时说「我可以理解你为什麽选择这个词,但我不同意这一点。 这是董事会履行非营利组织使命的职责,即确保OpenAI构建造福全人类的AGI。 “ AGI 代表通用人工智能,这个术语指的是能够像人类一样进行推理的软件。」 另一人表示,Sutskever 可能误解了与其他方可能对 OpenAI 进行恶意收购有关的问题。

Altman本人并没有参与将他踢出董事会的那场投票,但开除Altman的六人董事会并没有解释此举的原因,只是说Altman「向董事会的沟通不够坦诚」,但在公司为开除后的内部危机管理中,安全一直是最大的主题。

例如,在周五致员工的备忘录中,暂时担任CEO的Mira Murati提到了「我们的使命和共同开发安全有益的通用人工智能的能力」。

她说公司有三大支柱:「最大程度地推进我们的研究计划,我们的安全和价值观调整工作——特别是科学预测能力和风险的能力,以有利于所有人的方式与世界分享我们的技术。」

董事会与管理层分歧已久

关于AI安全的顾虑使这家创业公司的领导人产生了分歧。

2020年底,一部分员工由于在公司的商业战略和技术发布速度上的分歧,从OpenAI分裂出去创立了自己的创业公司Anthropic。 而为了确保OpenAI的技术开发不会受到财务激励的影响,Anthropic组建了一个独立的五人小组,可以雇佣和解雇公司的董事会。

多年来,AI从业者一直担心更强大的模型可能被滥用,比如开发生物武器、生成有说服力的深度伪造或入侵关键基础设施。 一些人还认为这些系统最终可能会变得自主并以人类的代价失控。

随着OpenAI开发出可以自动化写作、程序和从零生成逼真图像的突破性人工智能,公司的一些员工讨论了这样的AI潜在危害——特别是如果它学会自我改进。

今年夏天公司成立了一个团队,由Sutskever和研究员Jan Leike共同领导(AI alignment研究就是通过各种技术手段,使AI系统的目标与人类利益一致,防止AI系统做出危害人类的行为),致力于寻找技术解决方案,防止其AI系统失控。

在一篇说明中,OpenAI说它将专注五分之一的计算资源来解决「超级智能」的威胁,Sutskever 和Leike写道这「可能导致人类失去权力甚至灭绝」。

与Altman的野心与激进形成对比的是,Sutskever一直以来都非常关注安全,在7月的一次采访中他说,他最担心强大的通用AI在未来几年的危险性,但希望未来AI技术可以帮助人类对自己进行监管。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论