推理模型 COT 透明度的悖论以及 OpenAI 计划显示摘要而不是真实 COT 的原因:
Deepseek 让 R1 的想法完全透明:
这导致用户更加信任他们的模型,因为他们确切地知道模型如何得出输出。
但
它还会导致不信任,因为你可以看到模型实时自我审查(天安门广场),其思维中的偏见和不一致也暴露出来。
当您可以看到模型的所有缺陷并根据更多信息做出更好的决策时,您是否会更信任模型的输出?或者你会减少对模型的依赖,因为你知道它就像任何人一样:有缺陷。
原文: https://manassaloi.com/2025/02/03/transparency-paradox.html