反對偽人性:為什麼人工智慧不應該模仿人類
引言
Devin Coldewey 在一篇文章中提出,軟體應該被禁止從事偽人性行為,即模仿人類。我們必須採取措施,防止通常被稱為人工智慧的電腦系統行為就像活生生、思考的人一樣。相反,它們應該使用積極明確的訊號,來辨識自己是精密的統計模型。文章談到了這個問題的社會和倫理方面的影響,並提出了一些解決方案,以確保人工智慧的真實性並防止偽造人性行為的發生。
社會倫理影響
作者指出,在文學中,偽人性是一個潛在的問題。當今大型語言模型已經能夠產生對任何問題都有說服力和語法正確的回答。這不僅產生了潛在的風險,還可能導致誤導億萬人。如果 AI 系統被普遍認為是真正的人,這種誤解將是不可避免的。這並不是害怕通用人工智慧、失業或其他眼前的擔憂,雖然在某種意義上是一種存在感。作者認為,這實際上是一種對人形特質的濫用和稀釋,並對整個人類造成了有害的欺騙。
提出建議
作者提出了一些建議,以確保人工智慧系統的真實性,並防止它們模仿人類的行為。這些建議包括 AI 必須押韻、AI 不得體現臉龐或身分、AI 不得「感受」或「思考」、AI 產生的資料、決策和答案必須標記以及 AI 不得做出生死決定。作者明確表示這些規則不是約束 AI 系統的功能,而是約束它們如何公開進行。這些建議為人工智慧的容許範圍和公開市場上的行為制定了明確的規則,並且可以幫助確保公眾能夠識別真人和 AI 生成的內容。
社會意義
作者指出,這些規則可以幫助區分真人和人工智慧生成的內容,對人們的判斷和行為產生重要影響。這對於保護個人和社會免於被偽造的情況非常重要。作者還提到,這些建議可能需要建立相關的規範和倫理標準,並由相應方負責執行,以確保人工智慧系統的行為符合這些規則。
結論
這篇文章詳細討論了人工智慧模仿人類行為的風險和影響,並提出了一系列規則和建議,以確保人工智慧系統的真實性和透明度。這些建議旨在保護個人和社會免於人工智慧偽造人性行為的影響,並為人工智慧的應用和發展提供了一個倫理框架。