
美國律師因使用 ChatGPT 製造「假案件」道歉
自從人工智慧聊天機器人 ChatGPT 去年晚些時候登場以來,生成式人工智慧內容已經大幅增長。當一位美國律師使用 ChatGPT 編排法院申請時發生了什麼情況?人工智慧程式發明了虛假案件和裁決,讓律師感到十分尷尬。紐約的律師斯蒂芬·施沃茨本週向法官道歉,因為他提交了一份由 OpenAI 聊天機器人生成的充滿謊言的簡要。
源起
這個失誤發生在紐約曼哈頓聯邦法院聆訊一起涉及男子控告哥倫比亞航空公司 Avianca 的民事案件中。羅貝託·馬塔(Roberto Mata)聲稱,在 2019 年 8 月從薩爾瓦多飛往紐約途中,一個金屬餐盤擊中了他的腿,造成受傷。在航空公司的律師請求法院駁回該案後,施沃茨提交了一份回應,聲稱引用了十多個決定,以支援為何該訴訟應繼續進行的理由。其中包括 Petersen v. Iran Air、Varghese v. China Southern Airlines 和 Shaboon v. Egyptair。甚至包含了舊有的內部引用和引文
然而有一個重大問題:Avianca 的律師和主審判官 P·凱文·卡斯特爾都找不到案例。施沃茨不得不承認 ChatGPT 編造了一切。
道歉和承擔
在本週的聽證會之前提交的一個檔案中,施沃茨表示他想向法院深深地道歉,因為他的“極其可悔的錯誤”。在他的職業工作中,這是他第一次使用 ChatGPT。他寫道:“在我進行此案件的法律研究時,我認為 ChatGPT 是一個可靠的搜尋引擎。我現在知道那是錯誤的。”施沃茨補充說:“從來沒有打算欺騙法院。”
聊天機器人 ChatGPT 自去年底推出以來,因其生成人類化的內容,包括文章、詩歌和從簡單提示中產生對話而聲名大噪。它引發了生成式人工智慧內容的激增,讓立法者不得不手忙腳亂地試圖找出如何監管這些機器人的方法。對於施沃茨的疏忽,OpenAI 的發言人沒有立即回覆評論的要求。
思考
這起「假案件」風波不僅讓施沃茨和他的律所處境尷尬,更讓人開始思考人工智慧如何影響到傳統的產業和法律實務。律師透過 ChatGPT 這類的人工智慧工具進行法律研究和檔案寫作,可以有效節省時間和人力,提高執行效率。但是倘若這些技術不加監管和約束,可能會對法律實務帶來嚴重的後果,破壞法律的公正與正義性。
結論
同時這個事件也提醒我們,科技和人工智慧帶來的便利和效率,永遠無法取代人的分析和判斷,還是需要人和科技共同執行,才能更好地實現社會的發展與進步。
延伸閱讀
- 臺積電豪擲千億美金布局美國晶片產業!
- 美國停止對俄羅斯的進攻性網路行動,背後原因是什麼?
- OpenAI 計劃將 Sora 影片生成器整合至 ChatGPT,開啟創意新視界!
- 「深入解析!ChatGPT 收費全攻略:你需要知道的一切」
- 「OpenAI 為付費 ChatGPT 使用者推出深度研究功能,探索智慧對話的新境界!」
- 駭客入侵!美國大型員工篩檢機構 DISA 洩露超過 300 萬人資料!
- 「Web Summit 熱議:Scale AI CEO 力倡美國贏得 AI 戰爭,卻遭與會者冷淡反應!」
- 美國人工智慧安全研究所將面臨大削減?影響深遠的預警!
- OpenAI 努力破解 ChatGPT 的約束,帶你進入無阻礙的對話世界!
- "TikTok 強勢回歸!在美國的 App Store 和 Play Store 再次上架"