
<div><h2>法庭人工智慧:在法庭上安裝「機器法官」為何不是一個好主意</h2>
<h3>引言</h3>
近日有關在法庭上引入人工智慧(AI)所引發的議論日益加劇。最近,一名哥倫比亞的法官請教 ChatGPT 以獲得在保險案件中的指引;同時一名巴基斯坦的法官也使用 ChatGPT 來確認兩起案件的判決。此外還有報導指出,印度和玻利維亞的法官也尋求 ChatGPT 的建議。這些可能非官方的實驗以及一些系統性的改革措施,都表明 AI 在法律領域的應用趨勢。
<h3>AI 並非真的那麼聰明</h3>
一開始,用 AI 來代替法官似乎是一個不錯的主意。法律應該被公正、客觀地適用,不偏不倚。有人認為,有什麼比使用電腦程式更好的方式來實現這一點呢?AI 不需要休息時間,不會受賄,也不需要加薪。AI 可以更快、更有效地進行司法審判。所以,我們未來會在法庭上看到「機器法官」嗎?事實上有四個主要原因說明了這可能不是個好主意。
<h4>首先實際上 AI 通常作為專家系統或機器學習系統運行。專家系統將決策和其後果的規則編碼到一個稱為決策樹的軟體模型中,這在 20 世紀 80 年代的法律領域非常盛行。然而它們最終無法在大規模上取得良好的結果。機器學習是一種隨著時間不斷改善的人工智慧形式。它通常很強大,但並不比一個非常獲得教育的猜測更強大。它的一個優點是能夠找到我們無法計算的資料中的相關性和模式。然而它的一個缺點是它以人類不同的方式失敗,得出明顯不正確的結論。一個著名的例子是,有一個 AI 被欺騙認定為槍的是一隻烏龜。人臉識別技術往往無法正確識別婦女、兒童和皮膚較黑的人。所以,AI 可能也會錯誤地將一個人放在犯罪現場,而他實際上並不在那裡。對於一個產生明顯不正確結果的法律制度,我們很難有信心,因為機器學習的推理過程並不透明,它已經超出了我們理解其內部運行的能力,這種現象被稱為「黑盒子問題」。
<h4>當 AI 用於法律程式時,如果它失敗,後果可能是嚴重的。大型語言模型,也就是 AI 聊天機器人(例如 ChatGPT)的底層技術,被證實能夠寫出完全不真實的文字。儘管這意味著軟體正在思考,而不僅僅是根據統計確保其輸出中下一個詞,但這些型別的工具還不足以取代律師,事實上它們可能永遠無法代替。今年,一位紐約的律師使用 ChatGPT 來撰寫法庭提交書,卻發現它引用了一些不存在的案例。這表明這些工具尚不具備取代律師的能力。
<h3>歷史偏見</h3>
其次機器學習系統依賴於歷史資料。在犯罪和法律領域,這些資料往往包含有偏見和偏見。被邊緣化的群體在被逮捕和定罪的記錄中可能更加突出,因此 AI 系統可能會得出不應有的結論,即特定背景的人更可能有罪。一個著名的例子是 Compas 系統,這是一種由美國法官使用的人工智慧算法,用於對保釋和量刑作出決策。一項調查聲稱,該系統對有色人種給出了「虛假的陽性判斷」,對白人給出了「虛假的陰性判斷」。換句話說,它暗示有色人種會再犯,而事實上並不會,並且暗示白人不會再犯,而實際上會。然而該系統的開發者對上述指控提出了質疑。
<h3>法律規則無法可靠地轉換為軟體規則</h3>
第三,將法律規則可靠地轉換為軟體規則尚不明確。不同的個人對同一規則可能有不同的解釋。當 52 名程式設計師被分配了自動執行速度約束的任務時,他們所編寫的程式對同一份樣本資料發放的罰單數量差異很大。個別法官可能對法律的解釋不同,但他們在公眾面前進行解釋並且可能被上訴推翻。這應該減少隨著時間的推移而產生判斷的差異,至少在理論上是如此。但如果程式設計師在執行一項規則時過於嚴格或過於寬鬆,那麼發現和糾正這一問題可能非常困難。自動化的政府系統所造成的失敗是非常難以恢復的。荷蘭政府使用自動化系統(SyRI)來檢測福利欺詐,濫用這個系統誤將很多家庭錯誤地指控為欺詐,破壞了許多人的生活。澳大利亞的「線上遵從幹預」計劃用於自動評估社會福利金的欠款,也被稱為「Robodebt」。該計劃超越了其職權範圍,對數十萬人產生了負面影響,甚至引發了一項澳大利亞皇家委員會的調查。
<h3>判決不僅僅是法官的工作</h3>
最後判決只是法官的其中一項工作。他們在法律系統中擔任許多其他角色,例如管理法庭、訴訟工作和一個團隊,這些角色更難以透過軟體程式取代。
<h3>結論</h3>
雖然 AI 技術在司法領域的應用趨勢不可否認,但在引入「機器法官」之前,我們必須意識到相應的風險和倫理考量。AI 並不是智慧到能夠取代人類法官,它的訓練和運行仍然存在著許多問題和約束。使用 AI 判決系統很可能會帶來明顯不正確的結果,同時也增加了無法透明地審核決策的困難。此外 AI 系統所依賴的歷史資料可能包含偏見和歧視,這可能導致不公正和不平等的判決。同時將法律規則轉化為軟體規則的可靠性也是一個問題。個人對法律的解釋可能不同,這可能導致執行自動化規則時的不一致性。最後法官的角色不僅僅是作出判決,他們在法律制度中還擔當著眾多其他重要角色,這些角色很難被軟體程式所取代。
引用:AI: Why installing 'robot judges' in courtrooms is a really bad idea. (2023 年 7 月 13 日) 檢索自 https://techxplore.com/news/2023-07-ai-robot-courtrooms-bad-idea.html</div><div>Courtroom-AI,機器法官,法庭,自動化,技術,法律,司法,風險,倫理,</div>
延伸閱讀
- OpenAI 的創意寫作 AI 讓人想起高中文學社那個討人厭的孩子
- 亞馬遜成立新型代理 AI 團隊,將如何改變科技未來?
- 「搶先報名!TechCrunch Sessions: AI 演講者申請截止日期迫在眉睫!」
- MWC 最新報導:AI 影響力的兩極化觀點首次曝光!
- 「日本迎接新科技:Avride 的送貨機器人精彩登場!」
- 「Cellebrite 中止塞爾維亞客戶關係,警方疑似利用其技術安裝間諜軟體!」
- 亞馬遜新推出 Alexa+:為孩子們帶來 AI 驅動的「探索」與「故事」新功能!
- Bridgetown Research 載著 AI 助力,成功募資 1900 萬美元加速盡職調查!
- Nomagic 獲得 4400 萬美元資金,AI 驅動的機器手臂技術將改變未來!
- 全方位理解 Anthropic 的 AI:揭開 Claude 的神祕面紗!