OpenAI & DeepMind 员工公开信:警示 AI 监管缺失风险

2024年 6月 6日 82.1k 0

来自 OpenAI 和谷歌 DeepMind 的十数名前任及现任员工联名签署了一份新的公开信,表达了对先进人工智能技术所蕴含风险的担忧;包括进一步加剧现有的不平等、操纵和误导,以及自主人工智能系统失去控制可能导致人类灭绝等风险。

OpenAI & DeepMind 员工公开信:警示 AI 监管缺失风险-1

这些员工认为,AI 公司掌握着大量非公开信息,包括其系统的能力和局限性、保护措施的充分性以及不同类型伤害的风险水平。受经济利益驱使,他们有着强烈的经济动机来逃避有效的监督,现有企业治理架构不足以改变这一点,但来自政府的监管力度却远远不够。

“这些公司目前只承担与政府分享部分相关信息的微弱义务,对民间社会更是没有任何义务。我们认为,不能指望它们都自愿分享这些信息。

只要政府对这些公司没有有效的监督,现任和前任员工就是少数可以要求他们向公众负责的人。然而,广泛的保密协议阻止我们表达我们的担忧,除非向那些可能未能解决这些问题的公司表达。普通的举报人保护措施是不够的,因为它们侧重于非法活动,而我们担心的许多风险尚未受到监管。鉴于整个行业都发生过此类案件,我们中的一些人有理由担心各种形式的报复。”

因此,公开信呼吁行业相关公司遵守四项原则。包括:

  • 公司不会签订或执行任何禁止“贬低 ”或批评公司与风险有关的问题的协议,也不会通过妨碍任何既得经济利益来报复与风险相关的批评;
  • 公司将为现任和前任员工提供可验证的匿名流程,以便他们向公司董事会、监管机构以及具有相关专业知识的适当独立组织提出与风险相关的担忧;
  • 公司将支持公开批评文化,并允许其现任和前任员工向公众、公司董事会、监管机构或具有相关专业知识的适当独立组织提出对其技术的风险相关担忧,只要商业秘密和其他知识产权利益得到适当保护;
  • 公司不会对在其他流程失败后公开分享风险相关机密信息的现任和前任员工进行报复。在避免泄露机密信息的前提下,现任和前任员工应保留向公众报告其疑虑的自由。

相关文章

塑造我成为 CTO 之路的“秘诀”
“人工智能教母”的公司估值达 10 亿美金
教授吐槽:985 高校成高级蓝翔!研究生基本废了,只为房子、票子……
Windows 蓝屏中断提醒开发者:Rust 比 C/C++ 更好
Claude 3.5 Sonnet 在伽利略幻觉指数中名列前茅
上海新增 11 款已完成登记生成式 AI 服务

发布评论