“OpenAI宫斗”新动静?前核心人物离职后成立SSI指OpenAI安全性

暖阳看 2024-06-20 15:47:06

当地时间6月19日,上个月从OpenAI离职的公司联合创始人、(前)首席科学家、深度学习领域权威专家伊尔亚·苏茨克维(Ilya Sutskever),正式宣布单飞后的全新AI创业项目。

这位专家曾在2023年OpenAI董事会投出关键一票将奥尔特曼赶出公司,又反悔将他请回来。

苏茨克维向外界透露了他的最新动态,宣布创立一家名为“安全超级智能”(Safe SuperIntelligence,简称SSI)的新公司。

图片来源:社交平台X

SSI公司的主要方向是开发安全、强大的通用人工智能(AGI)系统,Ilya认为“这是我们这个时代最重要的技术问题”,公司短期内无意销售各种AI产品或服务。

声明表示:SSI 将专注于单一业务,这意味着公司不会受到管理费用、产品周期的干扰,公司的业务模式意味着“安全、保障和进步”都不会受到短期商业压力的影响。

值得注意的是,苏茨克维没有公开新公司的资金来源,也未透露他筹集的具体金额。

苏茨克维、杨·莱克(Jan Leike)于今年5月中旬双双从OpenAI离职。苏茨克维表示会在“适当的时候”披露他的下一个项目。

杨·莱克在社交平台X上公开解释了他们为什么离职。

他写到原因跟对核心优先事项以及团队分配资源的分歧有关,他们更关注安全性、一致性等问题;超级对齐团过去几个月一直在“逆风航行”,在计算上很吃力,完成研究越来越困难。过去几年,安全文化和流程已经让位于更耀眼的产品。

这似乎是OpenAI高管第一次公开表示OpenAI将产品置于安全之上。

OpenAI去年7月组建了超级对齐团队,由杨·莱克和伊尔亚·苏茨克维领导,目标是在未来4年内解决控制超级智能AI的核心技术挑战。该团队承诺将获得该公司20%的计算资源,但其实际获得计算资源却受到阻碍。

苏茨克维和莱克并不是唯二离开的人,自去年11月以来,OpenAI至少有5名注重安全的员工辞职或被开除。【每经网】

0 阅读:10
评论列表
  • 2024-06-20 19:20

    AI不能掌握在少数人手里

暖阳看

简介:感谢大家的关注