据 TechCrunch 报道,OpenAI 的“推理”人工智能模型 o1 在中文、波斯语或其他语言中表现出了令人费解的“思考”行为——“即使是用英语提出问题”。虽然确切原因尚不清楚,而且 OpenAI 尚未提供解释,但人工智能专家提出了一些理论。报告摘自:X 上的几位成员,包括 Hugging Face 首席执行官 Clement Delangue,都提到了像 o1 这样的推理模型是在包含大量汉字的数据集上训练的。谷歌 DeepMind 研究员 Ted Shaw 声称,包括 OpenAI 在内的公司都使用第三方中文数据标注服务,而 o1 改用中文就是“中文语言影响推理”的一个例子。 “OpenAI 和 Anthropic 等实验室利用[第三方]数据标签服务来提供科学、数学和编码的博士级推理数据,”Xiao 在 X 上的一篇文章中写道。“或者专家劳动力的可用性和成本原因是,这些数据提供商中有许多都位于中国。” […] 然而,其他专家并不认同 o1 中国数据标签假说。他们指出,o1 在寻找解决方案时也有可能改用印地语、泰语或中文以外的语言。然而,其他专家并不认同 o1 中国数据标签假说。他们指出,o1 在寻找解决方案时也有可能改用印地语、泰语或中文以外的语言。相反,这些专家表示,o1 和其他推理模型可能只是使用他们认为最有效实现目标(或幻觉)的语言。 “模型不知道语言是什么,也不知道语言是不同的,”阿尔伯塔大学人工智能研究员兼助理教授 Matthew Guzdial 告诉 TechCrunch。 “这只是短信而已。”人工智能初创公司 Hugging Face 的软件工程师 Tiezhen Wang 同意 Guzdial 的观点,即推理模型的语言不一致可能是通过模型在训练过程中产生的关联来解释的。王在 X 上的一篇帖子中写道:“通过拥抱每一种语言的细微差别,我们扩展了模型的世界观,并让它能够学习人类知识的全部内容。例如,我更喜欢用中文做数学,因为每个数字只是一个但当涉及到无意识偏见等话题时,我会自动切换到英语,主要是因为那是我第一次学习和吸收这些想法的地方。” […] 非营利性艾伦人工智能研究所的研究科学家卢卡·索尔代尼 (Luca Soldaini) 警告说,我们无法确定。他们告诉 TechCrunch:“由于这些模型非常不透明,对已部署的人工智能系统的这种观察是不可能得到支持的。” “这是为什么人工智能系统构建方式的透明度至关重要的众多案例之一。”
在 Slashdot 上阅读这个故事的更多内容。