律師使用 ChatGPT 引述「虛假」案例
在對哥倫比亞航空公司 Avianca 提起訴訟的律師,引用了 ChatGPT 找到的六個案例,後被證實這些案例根本不存在,而這名律師竟然聲稱 ChatGPT 告訴他這些案例是真實的。這一訊息引起了廣泛關注,並引起了普遍關注:當人工智慧不再是輔助工具,而是完全取代了律師時,如何確保它們不會引用虛假的案例?
ChatGPT 無法作為律師審判案件
律師 Steven A. Schwartz 承認使用 OpenAI 的聊天機器人 ChatGPT 作為研究工具。為了確認案例的真實性,他問 ChatGPT 是否在說謊。當他詢問資料來源時,ChatGPT 繼續道歉之前有些混淆,堅稱這個案例是真實的,並說可以在 Westlaw 和 LexisNexis 查到。他在得到肯定的答案後又詢問其他案例是否為假,而 ChatGPT 堅稱所有案例都是真實的。然而對方律師發現了問題,揭示出 Levidow、Levidow、Oberman 律師事務所提交的報告中充滿著謊言。
Chatbot 可能無法確認資料真實性
這一事件突出了使用 chatbot 進行律師研究而沒有對所引用的案例進行進一步檢查的荒謬性。Microsoft 的 Bing 虛假新聞事件現在已經成為其敗筆,Bing 說 Google 的 AI chatbot Bard 已被關閉,但其實是虛假的。即使 ChatGPT 能夠模擬書面語言的模式,以維持自己信心十足的形象,如果它無法確保 ketchup 中字母“e”出現的次數,那又有什麼用?
應確認人工智慧工具的可靠性
此案例提醒我們,當使用任何人工智慧工具進行法律研究時,應該與其他資料源相互匹配以確保可靠性。雖然在大多數情況下,聊天機器人相當有用,但與律師相比,它們缺乏關於歷史案例的理解和經驗。因此在使用 ChatGPT、Bing 或其他人工智慧工具作為法律研究工具時,必須謹慎對待,並且要始終確保它們引用的資料是可靠且正確的。
適當的資料核實對於法律研究至關重要
這一事件再次證實了在任何情況下,核實資料的重要性。尤其是在法律領域,任何疏忽和不小心都會帶來重大影響。使用人工智慧工具作為律師研究輔助工具,可以減少研究資料的時間並提高研究資料的精確度。但是對於當前不可靠的技術,不能有過分的期望。只有在確保引用的每個案例都經過核實並認為它是可靠的情況下,才能使用該資料。最後對於出現錯誤的人工智慧工具,還需要開發更好的模型來保證他們的資料準確性和可靠性。
延伸閱讀
- 無線耳機升級帶來 ChatGPT 貼心助手 - Nothing 最新耳機震撼登場
- ChatGPT 不再需要帳戶 - 但有一個小陷阱
- AI 動力對話機器人 ChatGPT:一切你需要知道的
- 協變科技致力於打造 ChatGPT 機器人
- Glean 欲在企業市場擊敗 ChatGPT 的遊戲
- 你比 ChatGPT 更黑嗎?來測測看!
- Match Group 宣布與 OpenAI 達成交易,宣告稿由 ChatGPT 撰寫
- AI 驅動的 ChatGPT:一切你需要知道的事情
- ChatGPT 現在可以記住──也可以忘記──你告訴它的事情
- TikTok 抖音成為孩子們新寵,使用時間比 YouTube 增長 60%,20%嘗試 OpenAI ChatGPT