<center id="d5rpj"></center>
    1. <object id="d5rpj"><sup id="d5rpj"></sup></object>
      1. <u id="d5rpj"><s id="d5rpj"></s></u>
        <center id="d5rpj"></center>

        「法外狂徒」ChatGPT!30年老律師用它旁征博引,結果被騙得禁止執業

        核心提示ChatGPT,把從業30年的老律師給坑慘了!老哥撰寫案件文案的時候,嘗鮮讓ChatGPT幫忙準備材料。然而提交后,不管是法官、對方律師還是老哥自己,都溯源不到

        ChatGPT,把從業30年的老律師給坑慘了!

        老哥撰寫案件文案的時候,嘗鮮讓ChatGPT幫忙準備材料。然而提交后,不管是法官、對方律師還是老哥自己,都溯源不到引用的判決文書。

        結果就是,10頁文書被法官定義為“充滿虛假”,老哥還被暫停執業許可,面臨被制裁的可能。

        這位姓施的老哥欲哭無淚,因為秉承著一貫的嚴謹態度,他明明認真詢問過ChatGPT,它提供“南方航空公司被訴案”等材料時,有沒有撒謊?

        ChatGPT響應得很快:“當然沒有啦~~”

        事件一出,引發鋪天蓋地的談論。

        不過這一次大多數網友站在ChatGPT這邊,站隊后的發言都有些憤憤:

        圖片

        一份杜撰6個相關案件的文書

        如果沒有ChatGPT的介入,施老哥接手的案件本身其實平平無奇:

        一位乘客起訴航空公司A,稱他乘坐航司A的航班時,被空乘用金屬服務車給砸到膝蓋受了傷。

        作為代理律師,施老哥提交了一份10頁的文書,里面洋洋灑灑,引用了6起類似案件的法院判決,包括Varghese訴中國南方航空公司案、Zicherman訴大韓航空公司案等。

        從業30年,這等案件對老哥來說就是小case。

        然而戲劇性的一幕發生了——

        被告律師向法庭提交書面文字,稱他們在核實文書中提到的Varghese與南航案時,“無法通過標題或引用找到此案”,也沒有任何與此相似的案件。

        而文書中引用了的另一個案件,即Zicherman訴大韓航空公司一案,施老哥稱這是美國第11巡回上訴法院在2008年發表的意見,但被告律師也找不到該案的源頭文件。

        此外美國達美航空的公司正式名稱也存在錯誤,應該是Delta Air Lines,而不是文書中提到的Delta Airlines。

        圖片

        核實情況后,法官們發現確有其事,這簡直是“前所未有的情況”!

        最終,他們判定這份文書充滿“虛假司法判決,虛假引用和虛假內部引用”。

        這下好了,施老哥被禁止在紐約南區執業,法官們還將在6月8日將舉行聽證會,討論是否制裁施老哥。

        圖片

        這件荒唐事兒到底是怎么發生的?

        施老哥在周四的宣誓書中解開了謎底,原來,在準備文書材料時,他讓ChatGPT來給自己打下手,以“補充”自己所做的工作。

        “我不是故意欺騙法院或航空公司的”,施老哥說自己之前從來沒用過ChatGPT,“我不知道它的內容可能有假?!?/p>

        施老哥還向法院提供了一份“證據”,證明他確實向ChatGPT尋求過材料的真實性。

        他在對話框中輸入了以下文字:

        ChatGPT迅速給出響應:

        圖片

        但事實是這些案例都是ChatGPT一本正經胡說八道的。

        事已至此,施老哥追悔莫及,表示自己“非常遺憾”依賴ChatGPT來尋找類似案件的判決材料。

        他還表達了自己的決心,稱以后如果沒有驗證真實性,再也不會隨意相信ChatGPT的“一面之詞”了。

        法律從業者,是否該擁抱AI

        這個案件引起了法律界的廣泛關注,對此,紐約大學法學院法律倫理學教授斯蒂芬·吉勒斯(Stephen Gillers)表示,施老哥的事兒雖然只是個例,但背后問題在法律界尤為尖銳。

        ChatGPT對法律工作帶來的最大危險,就是它擁有“胡說八道還不臉紅”的本領。

        圖片

        ChatGPT問世半年后,仍然沒有良好的規避和解決辦法。防不勝防,連多家AI巨頭也因此栽在AI手里,譬如Bard編造關于詹姆斯韋伯太空望遠鏡的新聞、Bing謊稱Bard被關閉什么的。

        目前最為行之有效的辦法就是依靠用戶手動double check——這也是施老哥上當的一重原因,只是詢問ChatGPT真假,沒有自己二次確認。

        除此之外的另一重威脅,ChatGPT引發了從業者對“AI替代律師”的擔憂和激烈爭辯。

        不過發生了施老哥這件事,加上ChatGPT類產品目前確實無法盡善盡美,國內外法律界的普遍聲音是,至少在機器人接管之前,律師、法官離“被替代”還有很長一段時間。

        現實情況中,施老哥不是唯一一個讓ChatGPT成為自己助手的法律從業者。

        今年年初,哥倫比亞一名法官在審理一名自閉癥兒童的保險理賠官司時,采納了ChatGPT的答案。

        2月,上海政法學院教授曹陽面對《上海法治報》談論了ChatGPT在司法領域的應用,表示道:

        • ChatGPT可以演化成“智能律師助手”,幫助律師分析大量的法律文件和案例,提供智能化的法律建議和指導;

        • 可以變成“法律問答機器人”,回答法律問題,并提供相關的法律信息和建議。

        • 可以進行合同審核、輔助訴訟、分析法律數據等等,提高法律工作者的效率和準確性。

        個人從業者擁抱ChatGPT帶來的便利(即便背后隱藏著危險),市場也對法律和AI結合的賽道寄予厚望。

        OpenAI自己就在去年11月投資了專為律所打造LLM的公司Harvey,該公司上個月又獲得了紅杉領投的2100萬美金A輪融資。

        就在前天,法律AI初創公司Spellbook宣布獲得1090萬美元(約7700萬元人民幣)融資。Spellbook主要通過GPT-4和數十億份法律文件打造,還接入了一些其他大模型。它為專業律師提供服務,通過自然語言就能自動起草、審核法律合同等。

        不過現在發生了施老哥身上的這件離譜事,算是給大伙兒敲響了警鐘。

        大概整個法律界都會對ChatGPT及同類產品抱以更冷靜、更謹慎的態度了。

        One More Thing

        施老哥因為ChatGPT深陷泥潭的事情是真的,絕非通過AI瞎編。

        但是,這篇文章也是在ChatGPT的幫助下寫的(雖然參與部分很少很少,還進行了事實確認)。

        ——人類的本質就是套娃。

        參考鏈接:

        [1]https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html

        [2]https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research

        国产裸体艺术AⅤ一区二区
            <center id="d5rpj"></center>
          1. <object id="d5rpj"><sup id="d5rpj"></sup></object>
            1. <u id="d5rpj"><s id="d5rpj"></s></u>
              <center id="d5rpj"></center>