美國律師因使用 ChatGPT 製造「假案件」道歉
自從人工智慧聊天機器人 ChatGPT 去年晚些時候登場以來,生成式人工智慧內容已經大幅增長。當一位美國律師使用 ChatGPT 編排法院申請時發生了什麼情況?人工智慧程式發明了虛假案件和裁決,讓律師感到十分尷尬。紐約的律師斯蒂芬·施沃茨本週向法官道歉,因為他提交了一份由 OpenAI 聊天機器人生成的充滿謊言的簡要。
源起
這個失誤發生在紐約曼哈頓聯邦法院聆訊一起涉及男子控告哥倫比亞航空公司 Avianca 的民事案件中。羅貝託·馬塔(Roberto Mata)聲稱,在 2019 年 8 月從薩爾瓦多飛往紐約途中,一個金屬餐盤擊中了他的腿,造成受傷。在航空公司的律師請求法院駁回該案後,施沃茨提交了一份回應,聲稱引用了十多個決定,以支援為何該訴訟應繼續進行的理由。其中包括 Petersen v. Iran Air、Varghese v. China Southern Airlines 和 Shaboon v. Egyptair。甚至包含了舊有的內部引用和引文
然而有一個重大問題:Avianca 的律師和主審判官 P·凱文·卡斯特爾都找不到案例。施沃茨不得不承認 ChatGPT 編造了一切。
道歉和承擔
在本週的聽證會之前提交的一個檔案中,施沃茨表示他想向法院深深地道歉,因為他的“極其可悔的錯誤”。在他的職業工作中,這是他第一次使用 ChatGPT。他寫道:“在我進行此案件的法律研究時,我認為 ChatGPT 是一個可靠的搜尋引擎。我現在知道那是錯誤的。”施沃茨補充說:“從來沒有打算欺騙法院。”
聊天機器人 ChatGPT 自去年底推出以來,因其生成人類化的內容,包括文章、詩歌和從簡單提示中產生對話而聲名大噪。它引發了生成式人工智慧內容的激增,讓立法者不得不手忙腳亂地試圖找出如何監管這些機器人的方法。對於施沃茨的疏忽,OpenAI 的發言人沒有立即回覆評論的要求。
思考
這起「假案件」風波不僅讓施沃茨和他的律所處境尷尬,更讓人開始思考人工智慧如何影響到傳統的產業和法律實務。律師透過 ChatGPT 這類的人工智慧工具進行法律研究和檔案寫作,可以有效節省時間和人力,提高執行效率。但是倘若這些技術不加監管和約束,可能會對法律實務帶來嚴重的後果,破壞法律的公正與正義性。
結論
同時這個事件也提醒我們,科技和人工智慧帶來的便利和效率,永遠無法取代人的分析和判斷,還是需要人和科技共同執行,才能更好地實現社會的發展與進步。
延伸閱讀
- 微軟禁止美國警方使用企業 AI 工具進行臉部辨識
- 阿聯盟 DAO 在美國加密貨幣打壓中吸引更多亞洲創始人
- Microsoft 禁止美國警察局使用企業人工智慧工具
- 美國聯合健康集團 CEO 表示:“也許三分之一的美國公民受到最近的駭客攻擊影響”
- 美國對電信公司因未經同意分享客戶位置資料處以 2 億美元罰款
- 美國國家標準技術研究所推出新平臺評估生成式人工智慧
- 推特聯合創始人 Biz Stone 加入 Mastodon 新的美國非營利組織董事會
- ChatGPT 在歐盟再次遭遇隱私投訴,「幻覺」問題再起風波
- Google 支援的 Glance 在美國試點推出 Android 鎖定屏平臺
- 亞馬遜在美國推出全新的雜貨送貨訂閱服務