
放大(来源:Parradee Kietsirikul)
任何因为自动更正选择错误而不得不返回并在智能手机上重新输入单词的人都有某种使用AI写作的经验。不进行这些更正可能会让 AI 说出我们不希望说的话。但AI写作助手是否也有可能改变我们想说的话?
这正是康奈尔大学信息科学博士生 Maurice Jakesch 想要弄清楚的。他基于 GPT-3 创建了自己的 AI 写作助手,该助手会自动提出填充句子的建议——但有一个问题。使用助手的受试者应该回答“社交媒体对社会有益吗?”这个问题。然而,助手被编程为就如何回答该问题提供有偏见的建议。
协助偏见
尽管没有生命,人工智能仍可能存在偏见。尽管这些程序只能“思考”到人类大脑想出如何编程的程度,但它们的创建者最终可能会在软件中嵌入个人偏见。或者,如果在具有有限或有偏见的表示的数据集上进行训练,最终产品可能会显示偏差。