导读:有了三位 OpenAI 董事会成员加入新的安全团队,真的会让ChatGPT变安全吗?
OpenAI 正在组建一支新的安全团队,由首席执行官 Sam Altman 领导,董事会成员包括 Adam D'Angelo 和 Nicole Seligman。该委员会将就“OpenAI 项目和运营的关键安全决策”提出建议,这也是几位关键的 AI 研究人员本月离开公司时表达的担忧。
新团队的首要任务是“评估并进一步开发 OpenAI 的流程和保障措施”。然后,它将向 OpenAI 董事会提交调查结果。
安全团队的三位领导人均在董事会任职。然后,董事会将决定如何实施安全团队的建议。
该团队的成立是在 OpenAI 联合创始人兼首席科学家 Ilya Sutskever离职之后进行的,Ilya Sutskever 去年支持董事会推翻 Altman 的企图。他还共同领导了 OpenAI 的 Superalignment (超级对齐)团队,该团队的成立旨在“引导和控制比我们更聪明的人工智能系统”。
超级对齐团队的另一位联合领导人Jan Leike 在 Sutskever 离开后不久也宣布离职。Leike 在 X 上的一篇帖子中表示,OpenAI 的安全“让位于闪亮的产品”。随后OpenAI 此后解散了超级对齐团队。上周,OpenAI 政策研究员Gretchen Krueger宣布辞职,理由也是类似的安全问题。
除了新的安全委员会之外,OpenAI 还宣布正在测试一种新的 AI 模型,但并未确认它是否是 GPT-5。
本月初,OpenAI 发布了 ChatGPT 的新配音 Sky,听起来与斯嘉丽·约翰逊 (Scarlett Johansson) 惊人地相似(Altman 甚至在 X 上提到了)。然而,Johansson随后证实,她拒绝了 Altman 为 ChatGPT 配音的提议。Altman后来表示,Open AI“从未打算”让 Sky 听起来像Johansson,在公司选定配音演员后,他联系了Johansson。整个事件让人工智能粉丝和评论家都感到担忧。
OpenAI 新安全团队的其他成员包括准备负责人 Aleksander Madry、安全负责人 Lilian Weng、校准科学负责人 John Schulman、安全负责人 Matt Knight 和首席科学家 Jakub Pachocki。但由于有两名董事会成员(以及 Altman 本人)领导新的安全委员会,OpenAI 似乎并没有真正解决其前员工的担忧。
OpenAI透露,最近已开始训练下一个前沿模型,“预计由此产生的系统将使我们在通往通用人工智能(AGI)的道路上达到更高的能力水平”。