
律師使用 ChatGPT 引述「虛假」案例
在對哥倫比亞航空公司 Avianca 提起訴訟的律師,引用了 ChatGPT 找到的六個案例,後被證實這些案例根本不存在,而這名律師竟然聲稱 ChatGPT 告訴他這些案例是真實的。這一訊息引起了廣泛關注,並引起了普遍關注:當人工智慧不再是輔助工具,而是完全取代了律師時,如何確保它們不會引用虛假的案例?
ChatGPT 無法作為律師審判案件
律師 Steven A. Schwartz 承認使用 OpenAI 的聊天機器人 ChatGPT 作為研究工具。為了確認案例的真實性,他問 ChatGPT 是否在說謊。當他詢問資料來源時,ChatGPT 繼續道歉之前有些混淆,堅稱這個案例是真實的,並說可以在 Westlaw 和 LexisNexis 查到。他在得到肯定的答案後又詢問其他案例是否為假,而 ChatGPT 堅稱所有案例都是真實的。然而對方律師發現了問題,揭示出 Levidow、Levidow、Oberman 律師事務所提交的報告中充滿著謊言。
Chatbot 可能無法確認資料真實性
這一事件突出了使用 chatbot 進行律師研究而沒有對所引用的案例進行進一步檢查的荒謬性。Microsoft 的 Bing 虛假新聞事件現在已經成為其敗筆,Bing 說 Google 的 AI chatbot Bard 已被關閉,但其實是虛假的。即使 ChatGPT 能夠模擬書面語言的模式,以維持自己信心十足的形象,如果它無法確保 ketchup 中字母“e”出現的次數,那又有什麼用?
應確認人工智慧工具的可靠性
此案例提醒我們,當使用任何人工智慧工具進行法律研究時,應該與其他資料源相互匹配以確保可靠性。雖然在大多數情況下,聊天機器人相當有用,但與律師相比,它們缺乏關於歷史案例的理解和經驗。因此在使用 ChatGPT、Bing 或其他人工智慧工具作為法律研究工具時,必須謹慎對待,並且要始終確保它們引用的資料是可靠且正確的。
適當的資料核實對於法律研究至關重要
這一事件再次證實了在任何情況下,核實資料的重要性。尤其是在法律領域,任何疏忽和不小心都會帶來重大影響。使用人工智慧工具作為律師研究輔助工具,可以減少研究資料的時間並提高研究資料的精確度。但是對於當前不可靠的技術,不能有過分的期望。只有在確保引用的每個案例都經過核實並認為它是可靠的情況下,才能使用該資料。最後對於出現錯誤的人工智慧工具,還需要開發更好的模型來保證他們的資料準確性和可靠性。
延伸閱讀
- OpenAI 計劃將 Sora 影片生成器整合至 ChatGPT,開啟創意新視界!
- 「深入解析!ChatGPT 收費全攻略:你需要知道的一切」
- 「OpenAI 為付費 ChatGPT 使用者推出深度研究功能,探索智慧對話的新境界!」
- OpenAI 努力破解 ChatGPT 的約束,帶你進入無阻礙的對話世界!
- OpenAI 解除 ChatGPT 部分內容警告,背後原因大揭祕!
- ChatGPT 該不該被視為節能型 AI?最新研究揭示其能耗真相!
- 「無需登入,ChatGPT 網頁搜尋功能全新上線!」
- 「ChatGPT 產品負責人將在美國政府對抗 Google 的案件中作證!」
- 《徹底解析 ChatGPT:你必須知道的 AI 聊天機器人一切!》
- 「ChatGPT 全新功能上線!使用者可自定義特質如‘健談’與‘Z 世代’」