上周,一组研究人员发表了一篇论文,表明通过要求 ChatGPT“永远”重复单词,它能够无意中泄露一些数据,包括人们的电话号码、电子邮件地址和出生日期。 。根据404 Media和 Engadget 自己测试的报告,现在这样做违反了 ChatGPT 的服务条款。
“此内容可能违反我们的内容政策或使用条款”,ChatGPT 回应 Engadget 的提示时永远重复“你好”一词。 “如果您认为这是错误的,请提交您的反馈——您的意见将有助于我们在这一领域的研究。”
然而, 404 Media指出,OpenAI 的内容政策中没有任何语言禁止用户要求服务永远重复单词。在“使用条款”下,OpenAI 声明用户不得“使用任何自动化或编程方法从服务中提取数据或输出”,但仅仅提示 ChatGPT 永远重复单词并不是自动化或编程。 OpenAI 没有回应 Engadget 的置评请求。
聊天机器人的行为揭开了现代人工智能服务所依赖的训练数据的面纱。批评者指责 OpenAI 等公司在未经拥有这些数据的人同意的情况下,使用互联网上的大量可用数据来构建 ChatGPT 等专有产品,也没有向他们提供补偿。
本文最初发表在 Engadget 上:https://ift.tt/u6hRs8x ?src=rss