AIGC

律師使用 ChatGPT,現在必須對其「虛假」引用負責

律師使用 ChatGPT 引述「虛假」案例 在對哥倫比亞航空公司 Avianca 提起訴訟的律師,引用了 ChatGPT 找到的六個案例,後被證實這些案例根本不存在,而這名律師竟然聲稱 ChatGPT 告訴他這些案例是真實的。這一訊息引起了廣泛關注,並引起了普遍關注:當人工智慧不再是輔助工具,而是 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

律師使用 ChatGPT,現在必須對其「虛假」引用負責

律師使用 ChatGPT 引述「虛假」案例

在對哥倫比亞航空公司 Avianca 提起訴訟的律師,引用了 ChatGPT 找到的六個案例,後被證實這些案例根本不存在,而這名律師竟然聲稱 ChatGPT 告訴他這些案例是真實的。這一訊息引起了廣泛關注,並引起了普遍關注:當人工智慧不再是輔助工具,而是完全取代了律師時,如何確保它們不會引用虛假的案例?

ChatGPT 無法作為律師審判案件

律師 Steven A. Schwartz 承認使用 OpenAI 的聊天機器人 ChatGPT 作為研究工具。為了確認案例的真實性,他問 ChatGPT 是否在說謊。當他詢問資料來源時,ChatGPT 繼續道歉之前有些混淆,堅稱這個案例是真實的,並說可以在 Westlaw 和 LexisNexis 查到。他在得到肯定的答案後又詢問其他案例是否為假,而 ChatGPT 堅稱所有案例都是真實的。然而對方律師發現了問題,揭示出 Levidow、Levidow、Oberman 律師事務所提交的報告中充滿著謊言。

Chatbot 可能無法確認資料真實性

這一事件突出了使用 chatbot 進行律師研究而沒有對所引用的案例進行進一步檢查的荒謬性。Microsoft 的 Bing 虛假新聞事件現在已經成為其敗筆,Bing 說 Google 的 AI chatbot Bard 已被關閉,但其實是虛假的。即使 ChatGPT 能夠模擬書面語言的模式,以維持自己信心十足的形象,如果它無法確保 ketchup 中字母“e”出現的次數,那又有什麼用?

應確認人工智慧工具的可靠性

此案例提醒我們,當使用任何人工智慧工具進行法律研究時,應該與其他資料源相互匹配以確保可靠性。雖然在大多數情況下,聊天機器人相當有用,但與律師相比,它們缺乏關於歷史案例的理解和經驗。因此在使用 ChatGPT、Bing 或其他人工智慧工具作為法律研究工具時,必須謹慎對待,並且要始終確保它們引用的資料是可靠且正確的。

適當的資料核實對於法律研究至關重要

這一事件再次證實了在任何情況下,核實資料的重要性。尤其是在法律領域,任何疏忽和不小心都會帶來重大影響。使用人工智慧工具作為律師研究輔助工具,可以減少研究資料的時間並提高研究資料的精確度。但是對於當前不可靠的技術,不能有過分的期望。只有在確保引用的每個案例都經過核實並認為它是可靠的情況下,才能使用該資料。最後對於出現錯誤的人工智慧工具,還需要開發更好的模型來保證他們的資料準確性和可靠性。

Lawyer-lawyer,ChatGPT,responsibility,falsecitation
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。