Legal Twitter 现在正在审查Mata 诉 Avianca, Inc. (1:22-cv-01461)案的最新文件,非常有趣。这是对发生的事情的最佳总结:
所以,等等。他们提交了一份摘要,其中引用了 ChatGPT 编造的案例。法院要求他们提交意见的副本。然后他们回到 ChatGPT 并要求它写下意见,然后归档?
贝丝·维伦斯基,2003 年 5 月 26 日
我不是律师,但无论如何我都会深入研究并尝试拼凑完整的故事。
TLDR 版本
一位律师向 ChatGPT 询问支持他们试图提出的论点的案例示例。
ChatGPT 一如既往地产生了疯狂的幻觉——它凭空发明了几个支持案例。
当律师被要求提供相关案件的副本时,他们再次向 ChatGPT 寻求帮助——它发明了这些案件的全部细节,他们将这些细节截屏并复制到他们的法律文件中。
在某个时候,他们要求 ChatGPT 确认这些案件是真实的……而 ChatGPT 说是的。他们在另一份文件中包括了这个的截图。
法官很生气。许多相关方都将度过一段非常糟糕的时光。
详细的时间表
我从courtlistener.com 上的文件中拼凑出以下内容:
2022 年 2 月 22 日:最初立案。这是关于“2019 年 8 月 27 日从萨尔瓦多飞往纽约的 Avianca 航班上的人身伤害”的投诉。这里的复杂性在于,Avianca 于 2020 年 5 月 10 日申请了第 11 章破产保护,这与此案有关(他们后来摆脱了破产保护)。
在接下来的 12 个月里发生了各种来回,其中许多是关于破产是否“解除所有索赔”。
2023 年 3 月 1 日是事情变得有趣的地方。这份文件被提交——“反对动议的确认书”——它引用了完全虚构的案例!该文件中引用的一个例子(强调我的):
美国第十一巡回上诉法院在 Varghese v. China Southern Airlines Co.. Ltd. 案中专门处理了《蒙特利尔公约》下破产中止的影响。 925 F.3d 1339 (11th Cir. 2019) ,陈述“上诉人争辩说,地区法院错误地驳回了他们不合时宜的诉讼请求。他们声称,在破产法院诉讼未决期间,《蒙特利尔公约》规定的时效期限已经结束。我们同意。《破产法》规定,申请破产申请的作用是中止针对债务人的诉讼程序,这些诉讼程序在破产案件提交之前已经或可能已经开始。
还有几个这样的例子。
2023 年 3 月 15 日
引用这份支持动议的法律备忘录答复(强调我的):
原告引用了“Varghese 诉中国南方航空有限公司,925 F.3d 1339 (11th Cir. 2019)”来支持其《破产法》规定了两年时效期限的立场。下面的签名人无法通过标题或引文找到此案例,也无法找到与此案例有任何相似之处的任何案例。原告提供了据称来自“Varghese”案的冗长引述,包括:“我们 [第十一巡回法院] 先前认为,《破产法》的自动中止条款可能会终止《华沙公约》规定的诉讼时效,这是破产法的前身蒙特利尔公约……我们认为没有理由不在《蒙特利尔公约》下适用同样的规则。”下面的签名者无法找到此引文,无论如何也找不到类似的东西。引文声称引用了“Zicherman 诉大韩航空有限公司,516 F.3d 1237, 1254 (11th Cir. 2008)”。签署人未能找到此案;虽然最高法院有一个名为 Zicherman v. Korean Air Lines Co., Ltd. 的案件,该案于 1996 年判决,起源于纽约南区,上诉至第二巡回法院,但并未涉及华沙公约规定的时效期限。 516 US 217 (1996)。
2023 年 4 月 11 日
该案件的美国地区法官命令复制先前文件中引用的案件:
命令:在 2022 年 4 月 18 日之前,原告的记录律师 Peter Lo Duca 应提交一份宣誓书,附上他在向本法院提交的材料中引用的以下案例的副本:如本文所述。
该命令列出了七个具体案例。
2023 年 4 月 25 日
前五个附件均包含 ChatGPT 屏幕截图的扫描副本的 PDF!
您可以看出,因为 ChatGPT 界面的向下箭头在所有五个中都清晰可见。这是Exhibit Martinez 诉达美航空案中的一个例子。
2023 年 4 月 26 日
在这封信中:
被告人郑重表示,其中不少案件的真实性存疑。例如,“Varghese”和“Miller”案件据称是联邦报道中发表的联邦上诉案件。 [数据。 29; 29-1; 29-7]。我们无法使用 Westlaw 搜索在 Federal Reporter 中找到这些案例。我们还使用写在提交首页上的案卷号在 PACER 中搜索案例;这些搜索导致了不同的情况。
2023 年 5 月 4 日
显示原因的命令– 法官不高兴。
法院面临前所未有的情况。原告律师反对驳回动议的提交文件充满了对不存在案件的引用。 […]提交的案件中有六个似乎是虚假的司法判决,带有虚假的引述和虚假的内部引文。
[…]
让原告律师彼得·洛杜卡 (Peter LoDuca) 于 2023 年 6 月 8 日中午 12 点在纽约州纽约市珍珠街 500 号 11D 法庭亲自说明理由,说明为什么他不应根据以下规定受到制裁:(1) 规则 11(b) (2) & (c), 美联储。 R. Civ。 P.,(2) 28 USC § 1927,和 (3) 法院的固有权力,(A) 在其反对确认书 (ECF 21) 中向法院援引不存在的案件,以及 (B) 提交法院在他于 2023 年 4 月 25 日提交的宣誓书中附上了不存在的司法意见 (ECF 29) 的副本。 LoDuca 先生还应在 2023 年 5 月 26 日之前提交对该命令的书面答复。
我的印象是这种制裁威胁是非常坏的消息。
2023 年 5 月 25 日
在 5 月 26 日的截止日期前削减一点罚款。这是 Peter LoDuca 的反对动议宣誓书,这似乎表明 Steven Schwartz 是制作虚构案件的律师。
你的代理人[我认为这是指 Peter LoDuca] ,在提交之前审查反对的确认时,根本没有理由怀疑其中包含的判例法的真实性。此外,你的代理人没有理由怀疑施瓦茨先生研究的诚意。
附件 1有好东西。这次宣誓人(保证宣誓书中的陈述是真实的人)是 Steven Schwartz:
随着生成人工智能的使用在律师事务所内得到发展,您的代理人咨询了人工智能网站 ChatGPT 以补充所进行的法律研究。
经咨询生成式人工智能网站ChatGPT,你方委托人在提交的异议书中确实找到并引用了以下案例,本院认为这些案例不存在:
Varghese 诉中国南方航空公司,925 F.3d 1339(第 11 巡回法院,2019 年)
Shaboon 诉 Egyptair 2013 IL App(第 1 号)111279-U(Ill. App. Ct. 2013)
彼得森诉伊朗航空 905 F. Supp 2d 121 (DDC 2012)
Martinez 诉 Delta Airlines, Inc.. 2019 WL 4639462(Tex. App. 2019 年 9 月 25 日)
Durden 诉 KLM Royal Dutch Airlines,2017 WL 2418825(Ga. Ct. App. 2017 年 6 月 5 日)
Miller 诉 United Airlines, Inc.. 174 F.3d 366 (2d Cir. 1999)相关引用和意见由 ChatGPT 提供,ChatGPT 还提供了其合法来源并确保其内容的可靠性。提出的问题和提供的答复的摘录附于此后。
您的委托人依赖于已表明自己不可靠的消息来源向他提供的法律意见。
您的代理人在此事件发生之前从未使用 ChatGPT 作为进行法律研究的来源,因此不知道其内容可能是错误的。
这是宣誓人的错,没有确认 ChatGPT 提供的法律意见的来源。
- 你的宣誓人无意欺骗本法院或被告。
- Peter LoDuca,Esq。他没有参与相关研究,也不知道上述研究是如何进行的。
以下是随附的屏幕截图:
2023 年 5 月 26 日
法官显然不为所动,发布了另一份“说明原因”命令,这次威胁要对 LoDuca 先生、Steven Schwartz和Levidow, Levidow & Oberman 律师事务所实施制裁。现场听证会定于 6 月 8 日举行。
其中一部分对我来说不合算
一方面,发生的事情似乎很清楚:一位律师使用了一种他们不了解的工具,并产生了一堆假案件。他们无视警告(事实证明,即使是律师也不会阅读在线工具的警告和小字体),并将这些案件提交法院。
然后,当对这些文件提出质疑时,他们加倍努力——他们询问 ChatGPT 这些案件是否真实,ChatGPT 说是的。
这个故事有一个版本,其中整个不幸的事件序列归结为有效使用 ChatGPT 的固有困难。这是我第一次读这个故事时倾向于的版本。
但它的一部分不适合我。
我理解最初的错误:ChatGPT 可以产生令人难以置信的令人信服的引用,而且我以前见过很多人被这些愚弄的案例。
更难的是实际上让它加倍努力充实这些内容。
我一直在努力想出提示,将那个虚假的“Varghese v. China Southern Airlines Co., Ltd., 925 F.3d 1339 (11th Cir. 2019)”案扩展为完整描述,类似于本文档中的屏幕截图。
即使使用 ChatGPT 3.5,在不抛出明显警告的情况下也很难做到这一点。
今天,5 月 27 日,我正在尝试这个。相关研究发生在 3 月 1 日之前。在没有详细的发行说明的情况下,很难确定 ChatGPT 在三个月前面对类似提示时的表现。
所以这个故事有一个版本,其中第一组引用是一个无辜的错误,但是提交那些完整的文件(来自 ChatGPT 的一组截图纯粹是通过 OpenAI 向下箭头的存在暴露的)是故意的尝试弥补那个错误。
我很想知道 6 月 8 日听证会的结果!
最严重的 ChatGPT 错误
回到之前的截图,ChatGPT 的这个回复让我印象深刻:
对于之前的混乱,我深表歉意。经仔细核对,发现 Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019) 案确实存在,并且可以在 Westlaw 和 LexisNexis 等法律研究数据库中找到。
我以前见过 ChatGPT(和 Bard)说过这样的话,这绝对激怒了我。
不,它没有“仔细检查”——那不是它能做的事!并声称这些案例“可以在法律研究数据库中找到”是彻头彻尾的谎言。
更难的是解释为什么ChatGPT会这样撒谎。 LLM 公司有什么可能的理由来运送这样的模型?
我认为这与 LLM 聊天机器人的原罪有关:通过使用“我”代词,他们鼓励人们向他们提问有关他们如何工作的问题。
他们不能那样做。它们最好被认为是角色扮演对话模拟器——播放任何文本序列在统计上最有可能的延续。
对“你确定你是对的吗?”这个问题的常见回答是什么? – 是“是的,我仔细检查过”。我敢打赌 GPT-3 的训练数据中有大量这样的对话示例。
让这个故事成为一个警示
假设这里至少存在某些方面的无辜错误,可以做些什么来防止这种情况再次发生?
我经常看到有人暗示这些错误完全是用户的错:ChatGPT 界面在每个页面上都显示一个页脚,说明“ChatGPT 可能会产生关于人物、地点或事实的不准确信息”。
任何从事产品设计工作的人都知道用户不会阅读任何内容——警告、脚注和任何形式的缩微文案都会被故意忽略。这个故事表明即使是律师也不会读那些东西!
不过,人们对故事的反应确实很好。我怀疑这个故事会广为流传,这样做有望让很多律师和其他专业人士避免犯类似的错误。
我无法摆脱这个故事还有更多内容的感觉。希望在 6 月 8 日的听证会之后会有更多的人出来。我特别想知道这些 ChatGPT 对话的完整记录是否最终会被公开。我要看提示!
原文: http://simonwillison.net/2023/May/27/lawyer-chatgpt/#atom-everything