由人工智能运营的公司或其他组织的前景看起来越来越有可能。研究人员表示,我们需要更新我们的法律和训练人工智能的方式,以应对这种可能性。
最近大型语言模型的突破迫使我们重新想象哪些能力是纯粹人类的。关于这些算法是否能够像人类一样理解和推理存在一些争议,但在越来越多的认知任务中,它们可以实现与大多数人类相似甚至更好的性能。
这正在推动将这些新技能融入各种业务职能中,从撰写营销文案到总结技术文档,甚至协助客户支持。尽管人工智能在企业阶梯上的晋升可能存在根本限制,但担任管理甚至首席高管的角色正在逐渐进入可能性领域。
这就是为什么人工智能领域的法律专家现在呼吁我们调整法律,因为人工智能运营的公司和技术开发人员有可能改变他们训练人工智能的方式,首先使算法守法。
“法律奇点正在酝酿之中,”范德比尔特大学法学教授 Daniel Gervais 和企业家、斯坦福大学 CodeX 研究员 John Nay 在《科学》杂志上的一篇文章中写道。 “不受人类指挥的非人类实体第一次可能作为新的法律主体‘物种’进入法律体系。”
作者写道,虽然河流或动物等非人类实体有时被授予法律主体地位,但它们充分参与法律的主要障碍之一是无法使用或理解语言。随着最新一批人工智能的出现,这一障碍要么已经被突破,要么很快就会被突破,这取决于你问的是谁。
这首次开启了非人类实体直接与法律互动的前景。事实上,作者指出,律师已经使用人工智能驱动的工具来帮助他们完成工作,最近的研究表明法学硕士可以执行广泛的法律推理任务。
尽管今天的人工智能还远不能独立运营一家公司,但他们强调,在一些司法管辖区,没有任何规则要求公司必须由人类监督,人工智能管理企业事务的想法并不适用。法律明确禁止。
如果出现这样一家人工智能公司,目前尚不完全清楚法院将如何处理。违法行为最常见的两种后果是经济处罚和监禁,这对于一款脱离实体的软件来说并不是特别好。
尽管禁止人工智能控制的公司是一种可能性,但作者表示,这将需要大规模的国际立法协调,并可能会扼杀创新。相反,他们认为法律体系应该关注前景并找出最好的处理方法。
一个重要的途径可能是引导人工智能更加守法。这可以通过训练模型来预测哪些行为符合特定的法律原则来实现。然后,该模型可以教导其他为不同目的而训练的模型如何依法采取行动。
法律的模糊性可能与上下文高度相关,并且通常必须在法庭上进行讨论,这使得这一点具有挑战性。但作者呼吁训练方法将他们所谓的“法律精神”融入算法中,而不是关于如何在不同情况下表现的更公式化的规则。
监管机构可以将这种对人工智能的培训作为法律要求,当局也可以开发自己的人工智能,旨在监控其他模型的行为,以确保它们遵守法律。
尽管研究人员承认有些人可能会嘲笑允许人工智能直接控制公司的想法,但他们认为最好尽早让人工智能参与进来,这样我们就可以应对潜在的挑战。
他们写道:“如果我们不主动将人工智能代理纳入必须遵守人类法律的法律实体,那么我们就会失去跟踪他们所做的事情、塑造他们的做事方式以及防止伤害的巨大好处。”
图片来源: Shawn Suttle / Pixabay