就在几天前,OpenAI的使用政策页面明确指出,该公司禁止将其技术用于“军事和战争”目的。该行已被删除。正如The Intercept首次注意到的那样,该公司于 1 月 10 日更新了页面,如变更日志所述,“更加清晰并提供更多针对具体服务的指导”。它仍然禁止将其大型语言模型(LLM)用于任何可能造成伤害的行为,并警告人们不要使用其服务来“开发或使用武器”。然而,该公司删除了与“军事和战争”有关的语言。
虽然我们还没有看到它对现实生活的影响,但这种措辞的变化恰逢世界各地的军事机构对使用人工智能表现出兴趣。 AI Now 董事总经理莎拉·迈尔斯·韦斯特 (Sarah Myers West) 表示:“鉴于人工智能系统在加沙针对平民,现在是做出从 OpenAI 允许使用政策中删除‘军事和战争’一词的决定的重要时刻。”研究所告诉本刊。
禁止用途清单中明确提及“军事和战争”,这表明 OpenAI 无法与国防部等政府机构合作,而国防部通常会向承包商提供利润丰厚的交易。目前,该公司还没有可以直接杀死任何人或对任何人造成身体伤害的产品。但正如The Intercept所说,其技术可用于编写代码和处理可用于杀人的物品的采购订单等任务。
当被问及政策措辞的变化时,OpenAI 发言人 Niko Felix 告诉该出版物,该公司“旨在创建一套易于记忆和应用的通用原则,特别是因为我们的工具现在已被全球的日常用户使用,现在也可以构建 GPT。”菲利克斯解释说,“像‘不伤害他人’这样的原则很广泛,但很容易掌握,并且在许多情况下都具有相关性”,并补充说,OpenAI“特别引用了武器和对他人造成的伤害作为明显的例子。”然而,据报道,该发言人拒绝澄清禁止使用其技术“伤害”他人是否包括武器开发之外的所有类型的军事用途。
本文最初发表在 Engadget 上:https://ift.tt/dZTD75C ?src=rss