据《纽约时报》报道,一名黑客入侵了 OpenAI 的内部消息系统,获取了员工有关该公司最新人工智能进展的讨论。 据《纽约时报》报道,虽然黑客没有访问到核心代码,但 2023 年发生的事件引发了人们对外国对手窃取敏感人工智能机密的担忧。 该报援引两位匿名消息人士的话说,此次入侵发生在去年年初,当时一名黑客入侵了 OpenAI 的内部消息系统,获取了员工关于公司最新人工智能进展的讨论。 总部位于旧金山的 OpenAI 在 2023 年 4 月的全体会议上向员工和董事会证实了此次入侵,但选择不公开。 报道还补充说,该公司认为没有客户或合作伙伴的数据受到泄露,他们相信黑客是个人的行为,而不是受国家支持的攻击者。 OpenAI 高管团队选择不公开披露此事,因为他们认为被盗信息没有构成直接威胁,黑客很是单独行动者,该公司也没有通知包括 FBI 在内的政府执法机构。 然而,该事件引发了 OpenAI 员工的担忧,他们担心中国、俄罗斯等外国对手会窃取该公司的人工智能技术,并可能威胁美国的国家安全。 “泄密事件”发生后,OpenAI 前技术经理 Leopold Aschenbrenner 在给董事会的备忘录中批评了公司的安全措施,他认为 OpenAI 在防范来自外国对手的潜在威胁方面做得不太够。 在他发布相关信息后,Aschenbrenner随后被解雇。OpenAI 接下来驳斥了Aschenbrenner的担忧,亦坚称他的离职与他对公司的安全批评无关。 OpenAI 发言人 Liz Bourgeois 表示: “我们理解 Leopold 在 OpenAI 期间提出的担忧,但这并没有导致他离职。虽然我们认同他致力于打造安全的 AGI,但我们不同意他后来对我们工作提出的许多说法,包括他对我们安全性的描述,尤其是这次事件,我们在他加入公司之前就已处理过这个问题并与董事会分享过。” OpenAI 尚未立即回应置评请求。 OpenAI 或者缺乏安全深度考虑 这一事件凸显了围绕强大人工智能技术对国家安全影响的争论日益激烈。 行业观察人士还担心人工智能未来可能会被武器化。中国在人工智能领域的快速发展加剧了这种担忧,一些估计表明,中国在人工智能研究人才方面可能很快就会超过美国。 此外,该公司的安全措施也一直饱受批评和审查。过去几个月,该公司已有多名高级员工辞职,他们要么加入自称更负责任的 AI 公司的竞争对手,要么自己创业。 最值得注意的是,该公司首席科学家Ilya Sutskever因安全问题辞职。Sutskever 在 5 月离职时表示:“我相信 OpenAI 将打造既安全又有益的 AGI。”一个月后,他创立了自己的公司“ Safe Superintelligence Inc ”。 同样,OpenAI 著名人工智能研究员Jan Leike也因安全问题辞去了 ChatGPT 开发商的职务,并加入了 Anthropic。 为了解决这些问题,OpenAI 此后成立了一个安全委员会,其中包括前国家安全局局长保罗·中曾根将军。此外,要求政府对人工智能发展进行监管的呼声越来越大。