Bruce Schneier 和 Nathan E. Sanders 在一篇文章中写道:犯微积分错误的人也可能对微积分相关问题回答“我不知道”。如果人工智能系统会犯这些类似人类的错误,我们就可以让所有的纠错系统来影响它们的输出。但当前的人工智能模型——尤其是法学硕士——会犯不同的错误。人工智能错误似乎是随机出现的,没有任何围绕特定主题的聚类。 LLM 错误往往更均匀地分布在知识空间中。模型在微积分问题上犯错误的可能性与提出卷心菜吃山羊的可能性相同。人工智能的错误并不伴随着无知。法学硕士在说出完全错误的事情时(显然对人类而言也是如此)与说出正确的事情时一样自信。法学硕士看似随机的不一致使得人们很难相信他们在复杂的多步骤问题中的推理。如果你想使用人工智能模型来帮助解决业务问题,仅仅看到它了解哪些因素使产品有利可图是不够的;你需要确保它不会忘记金钱是什么。 […] 人类有时可能会犯看似随机、难以理解和不一致的错误,但这种情况很少发生,而且往往表明存在更严重的问题。我们也倾向于不让表现出这些行为的人担任决策职位。同样,我们应该将人工智能决策系统限制在适合其实际能力的应用程序中,同时牢记其错误的潜在后果。
在 Slashdot 上阅读这个故事的更多内容。