The Intercept 日前公布的文件显示,微软曾于 2023 年 10 月向美国军方推荐,使用 OpenAI 开发的图像生成工具 DALL-E 来帮助构建执行军事行动的软件。
而就在今年 1 月份,OpenAI 对其 AI 模型使用条款进行一番大更新:将原本禁止的 “军事与战争”从页面中删除,留下的只有禁止使用"我们的服务伤害自己或他人",包括 "开发或使用武器"。
微软在面向美国国防部的 PPT 中大致介绍了其可如何利用 OpenAI 的机器学习工具,包括大受欢迎的 ChatGPT 文本生成器和 DALL-E 生成工具,完成从文档分析到机器维护的各种任务。
这份文件摘自 2023 年 10 月美国国防部在洛杉矶举办的"AI literacy"培训研讨会上提供的大量资料,包括微软和 OpenAI 在内的多家机器学习公司在会上介绍了他们可以为五角大楼提供的服务。
微软在 PPT 中重点介绍了 OpenAI 可提供的各种“常见”用途,其中就包括了国防。且文件中例举的“高级计算机视觉训练”下的一个要点是“战斗管理系统”:使用 DALL-E 模型创建图像,训练战斗管理系统。
顾名思义,战斗管理系统是一种指挥和控制软件套件,为军事领导人提供战斗场景的态势概览,使他们能够协调炮火、空袭目标识别和部队调动等工作。计算机视觉训练的提及表明,DALL-E 产生的人造图像可以帮助五角大楼的计算机更好地“看到”战场上的情况,对于寻找和消灭目标尤其有利。
微软在声明中解释称,虽然他们已经提议使用 DALL-E 来训练战场软件,但尚未具体实施。“这是一个潜在用例的示例,是通过与客户就生成 AI 的可能性艺术进行对话而得知的”。微软拒绝透露该言论出自该公司何人之手,也没有解释为什么在其演示中“潜在”用例被标记为“常见”用途。
对此,OpenAI 发言人 Liz Bourgeous 则表示,OpenAI 没有参与微软的宣传活动,也没有向国防部出售任何工具。
“OpenAI 的政策禁止使用我们的工具来开发或使用武器、伤害他人或破坏财产。我们没有参与这次演示,也没有与美国国防机构就其描述的假设用例进行对话。我们没有证据表明 OpenAI 模型已被用于此用途。 OpenAI 没有与国防机构合作来利用我们的 API 或 ChatGPT 来实现此类目的。”
微软方面表示,如果美国军方通过与微软签订合同使用 DALL-E 或任何其他 OpenAI 工具,则必须遵守后者的使用政策。
但 The Intercept 指出,尽管如此,对于将其使命描述为开发能够造福全人类的以安全为重点的 AI 的 OpenAI 而言,任何使用其技术来帮助军方更有效地进行杀戮和破坏的行为,对该公司来说都将是一个戏剧性的转折。
专注于技术伦理研究的牛津大学布拉瓦特尼克政府学院客座研究员 Brianna Rosen 称:“要想建立一个至少不会间接对平民造成伤害的作战管理系统是不可能的。”
曾在奥巴马政府期间任职于国家安全委员会的 Rosen 解释道,OpenAI 的技术既可以用来帮助人们,也可以用来伤害人们,任何政府将其用于后者都是一种政治选择。
"除非像 OpenAI 这样的公司得到政府的书面保证,他们不会将技术用于伤害平民--这可能仍然不具有法律约束力--否则我看不出公司有什么办法可以有把握地声明技术不会被用于(或滥用)产生动能效应的方式。"