AIGC

無 ChatGPT 置身法庭:法官命令 AI 生成的所有內容必須被宣佈和檢查

德克薩斯法官要求宣佈 AI 生成內容並進行檢查在法庭上,不是所有人都願意使用人工智慧來表達自己的觀點。上周,德克薩斯州聯邦法官 Brantley Starr 採取措施,確保不再有類似事件在他的法庭上發生。他增加了一項要求:每位出現在他法庭上的律師都必須證實“檔案的任何部分均未由生成性人工智慧草擬”, .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

無 ChatGPT 置身法庭:法官命令 AI 生成的所有內容必須被宣佈和檢查

德克薩斯法官要求宣佈 AI 生成內容並進行檢查

法庭上,不是所有人都願意使用人工智慧來表達自己的觀點。上周,德克薩斯州聯邦法官 Brantley Starr 採取措施,確保不再有類似事件在他的法庭上發生。他增加了一項要求:每位出現在他法庭上的律師都必須證實“檔案的任何部分均未由生成性人工智慧草擬”,如果使用了,還需得到人工核實。一名律師使用了 ChatGPT 來“補充”他研究的六個案例,但這些案例都是由語言模型捏造的,這位律師現在“非常後悔”這樣做。

必須宣佈檢查 AI 生成內容的必要性

在 Starr 法官的辦公室起草此事的備忘錄中提到:“這些平臺功能強大,可以用於許多法律方面,如離婚、發現請求、檔案錯誤建議、口頭辯論預期問題等。但是法律研究並不是它們適合的工作。”因為當前這些平臺容易出現幻覺和偏見,它們捏造事實,甚至包括引用和引證。此外這些能力來源的可靠性和偏見也是問題。雖然律師宣誓要放下個人偏見和信仰,忠實地遵守生命法則並代表客戶,但生成性人工智慧的程式是由沒有宣誓的人類編寫的。因此這些系統對任何客戶、法律和美國憲法或事實本身都沒有效忠。這些程式按照計算機程式碼而非信念行事,根據程式設計而非原則採取行動。如果有人認為該平臺具有法律研究所需的準確性和可靠性,則可能要求檢查其精度和可靠性。

結論

在 AI 時代,技術的發展各種各樣的弊病同時出現。法律行業也不可豁免。然而在使用人工智慧之前,必須考慮其產生的語言、資料和分析是否真正可靠。如今 AI 技術還有許多問題,特別是在技術應用的初期。因此我們必須在使用 AI 的過程中更加謹慎。無論是在法律和其他領域,我們必須更加謹慎地考慮使用 AI 的風險和收益。

Artificial Intelligence-AI 生成,法庭,宣佈,檢查,ChatGPT
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。