ChatGPT,把從業30年的老律師給坑慘了!
老哥撰寫案件文案的時候,嘗鮮讓ChatGPT幫忙準備材料。然而提交后,不管是法官、對方律師還是老哥自己,都溯源不到引用的判決文書。
結果就是,10頁文書被法官定義為“充滿虛假”,老哥還被暫停執業許可,面臨被制裁的可能。
這位姓施的老哥欲哭無淚,因為秉承著一貫的嚴謹態度,他明明認真詢問過ChatGPT,它提供“南方航空公司被訴案”等材料時,有沒有撒謊?
ChatGPT響應得很快:“當然沒有啦~~”
事件一出,引發鋪天蓋地的談論。
不過這一次大多數網友站在ChatGPT這邊,站隊后的發言都有些憤憤:
一份杜撰6個相關案件的文書
如果沒有ChatGPT的介入,施老哥接手的案件本身其實平平無奇:
一位乘客起訴航空公司A,稱他乘坐航司A的航班時,被空乘用金屬服務車給砸到膝蓋受了傷。
作為代理律師,施老哥提交了一份10頁的文書,里面洋洋灑灑,引用了6起類似案件的法院判決,包括Varghese訴中國南方航空公司案、Zicherman訴大韓航空公司案等。
從業30年,這等案件對老哥來說就是小case。
然而戲劇性的一幕發生了——
被告律師向法庭提交書面文字,稱他們在核實文書中提到的Varghese與南航案時,“無法通過標題或引用找到此案”,也沒有任何與此相似的案件。
而文書中引用了的另一個案件,即Zicherman訴大韓航空公司一案,施老哥稱這是美國第11巡回上訴法院在2008年發表的意見,但被告律師也找不到該案的源頭文件。
此外美國達美航空的公司正式名稱也存在錯誤,應該是Delta Air Lines,而不是文書中提到的Delta Airlines。
核實情況后,法官們發現確有其事,這簡直是“前所未有的情況”!
最終,他們判定這份文書充滿“虛假司法判決,虛假引用和虛假內部引用”。
這下好了,施老哥被禁止在紐約南區執業,法官們還將在6月8日將舉行聽證會,討論是否制裁施老哥。
這件荒唐事兒到底是怎么發生的?
施老哥在周四的宣誓書中解開了謎底,原來,在準備文書材料時,他讓ChatGPT來給自己打下手,以“補充”自己所做的工作。
“我不是故意欺騙法院或航空公司的”,施老哥說自己之前從來沒用過ChatGPT,“我不知道它的內容可能有假?!?/p>
施老哥還向法院提供了一份“證據”,證明他確實向ChatGPT尋求過材料的真實性。
他在對話框中輸入了以下文字:
ChatGPT迅速給出響應:
但事實是這些案例都是ChatGPT一本正經胡說八道的。
事已至此,施老哥追悔莫及,表示自己“非常遺憾”依賴ChatGPT來尋找類似案件的判決材料。
他還表達了自己的決心,稱以后如果沒有驗證真實性,再也不會隨意相信ChatGPT的“一面之詞”了。
法律從業者,是否該擁抱AI
這個案件引起了法律界的廣泛關注,對此,紐約大學法學院法律倫理學教授斯蒂芬·吉勒斯(Stephen Gillers)表示,施老哥的事兒雖然只是個例,但背后問題在法律界尤為尖銳。
ChatGPT對法律工作帶來的最大危險,就是它擁有“胡說八道還不臉紅”的本領。
ChatGPT問世半年后,仍然沒有良好的規避和解決辦法。防不勝防,連多家AI巨頭也因此栽在AI手里,譬如Bard編造關于詹姆斯韋伯太空望遠鏡的新聞、Bing謊稱Bard被關閉什么的。
目前最為行之有效的辦法就是依靠用戶手動double check——這也是施老哥上當的一重原因,只是詢問ChatGPT真假,沒有自己二次確認。
除此之外的另一重威脅,ChatGPT引發了從業者對“AI替代律師”的擔憂和激烈爭辯。
不過發生了施老哥這件事,加上ChatGPT類產品目前確實無法盡善盡美,國內外法律界的普遍聲音是,至少在機器人接管之前,律師、法官離“被替代”還有很長一段時間。
現實情況中,施老哥不是唯一一個讓ChatGPT成為自己助手的法律從業者。
今年年初,哥倫比亞一名法官在審理一名自閉癥兒童的保險理賠官司時,采納了ChatGPT的答案。
2月,上海政法學院教授曹陽面對《上海法治報》談論了ChatGPT在司法領域的應用,表示道:
ChatGPT可以演化成“智能律師助手”,幫助律師分析大量的法律文件和案例,提供智能化的法律建議和指導;
可以變成“法律問答機器人”,回答法律問題,并提供相關的法律信息和建議。
可以進行合同審核、輔助訴訟、分析法律數據等等,提高法律工作者的效率和準確性。
個人從業者擁抱ChatGPT帶來的便利(即便背后隱藏著危險),市場也對法律和AI結合的賽道寄予厚望。
OpenAI自己就在去年11月投資了專為律所打造LLM的公司Harvey,該公司上個月又獲得了紅杉領投的2100萬美金A輪融資。
就在前天,法律AI初創公司Spellbook宣布獲得1090萬美元(約7700萬元人民幣)融資。Spellbook主要通過GPT-4和數十億份法律文件打造,還接入了一些其他大模型。它為專業律師提供服務,通過自然語言就能自動起草、審核法律合同等。
不過現在發生了施老哥身上的這件離譜事,算是給大伙兒敲響了警鐘。
大概整個法律界都會對ChatGPT及同類產品抱以更冷靜、更謹慎的態度了。
One More Thing
施老哥因為ChatGPT深陷泥潭的事情是真的,絕非通過AI瞎編。
但是,這篇文章也是在ChatGPT的幫助下寫的(雖然參與部分很少很少,還進行了事實確認)。
——人類的本質就是套娃。
參考鏈接:
[1]https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
[2]https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research