Slashdot 的长期读者 shanen 一直在测试 AI 客户端。 (他们报告说,中国的 DeepSeek“结果非常擅长解释为什么我不应该相信它。我曾经想到或听说过的每一个计算机安全问题以及其他一些问题。”)然后他们想知道是否还有政府审查制度:就像会计师被问到 2 加 2 是什么一样。锁上门并遮上所有窗户后,会计师在你耳边低语:“你想要什么……?”让我首先回答一些关于 DeepSeek 的问题。您是否在本地运行它并将响应与网站的响应进行比较?我的假设是,你的里程应该有所不同……众所周知,DeepSeek 不想谈论许多“政治”话题。这是基于扭曲的世界模型吗?或者是在模型训练完之后在查询接口中实现审查?我的假设是,它一定是用大量数据进行训练的,因为删除所有坏东西的成本会令人望而却步……除非另一个人工智能首先过滤数据?但他们真正的问题是:怎样才能信任人工智能? “信任”可以有不同的含义,包括数据收集政策。 (“我敢打赌,你们中的大多数人都比你们应该更信任亚马逊和亚马逊的秘密人工智能……”沙恩建议道。)您可以使用人工智能系统而不用担心其数据保留策略吗?他们还询问有多少 Slashdot 读者读过 Ken Thompson 的《信任信任的反思》,这提出了一个问题:你是否可以信任不是你自己创建的代码。那么,人工智能系统有什么方法可以向您保证其答案是准确、值得信赖的,并且可以安全使用吗?在评论中分享您自己的想法和经验。你需要什么才能信任人工智能?
在 Slashdot 上阅读这个故事的更多内容。