使用者資料製造的 AI 複製人面臨驚人風險
依據大量的使用者資料,人工智慧可以製造自我數位複本。這個複本長得像你,說話與你如出一轍,在行為上也仿佛深入骨髓。這麼一個聽起來刺激極致的情境,讓人們會有怎樣的感受呢?不列顛哥倫比亞大學最近的研究聚焦在這個問題上。
AI 複製人
有關人工智慧的深度學習技術,例如互動深度假面、聲音轉換和虛擬演員等的進展,可以模擬個人的形象和行為。這種由人工智慧創造的個人映象被稱為「AI 複製人」。從人們的現實樣貌、對話方式或行為模式等,可以創造出這些 AI 複製人,其深度可以是不同的,可以重現某些獨特的特徵,也可以創造出接近完美的數位孿生體。AI 複製人是互動技術,旨在解讀使用者和環境輸入,進行內部處理並產生可感知的輸出。然而它們是基於個人資料構建的人工智慧技術。隨著我們產生的個人資料量不斷增加,AI 複製人在複製我們的行為方面的可靠性也隨之增加。
恐懼、分裂和錯誤記憶
我們在人機互動的 ACM 會議論文中發表了三種 AI 複製人風險的定義:恐懼自己的幽靈、身份碎片和活生生的記憶。首先可以說恐懼自己的幽靈不僅是對 AI 複製人本身的恐懼,還包括其潛在誤用的危險。參與者擔心,他們的數位孿生體可能會利用和替換他們的身份。其次存在身份碎片的威脅。製造復制品會威脅到被復制的人的獨特性、整體性和一致性。換句話說,人們擔心複製的過程中自己的獨特性和個性的一部分可能會消失。最後參與者表達了關於「活生生的記憶」的擔憂。當一個人與現有關係的孿生體互動時,這會造成對個人的錯誤描述,或者他們會對孿生體產生過度依附的情感,改變人際關係的動態。
儲存人性價值觀
顯然,發展和部署 AI 複製人擁有深遠的影響。我們的研究不僅為道德人工智慧的重要對話提供了有價值的見解,而且提出了一個以身份和真實性為優先考慮的 AI 複製人設計框架。所有利益相關者,包括設計師、開發人員、政策制定者和終端使用者,都需要負責任地適應這條尚未開拓的領域。這包括認真考慮審核和使用者資料過期策略,以預防誤用和過度依賴。此外必須要認識到 AI 複製人技術對個人身份和人際關係的影響只是冰山一角。當我們繼續探索這一新興領域時,我們的研究結果可以作為指南,引導我們優先考慮道德問題和人性價值觀。
延伸閱讀
- Pinterest AI 打造的拼貼圖比單張針腳更吸睛
- Atlassian 推出新的 AI 同事 Rovo
- 三星的營運利潤飆升 930%,AI 動能帶動記憶晶片需求
- GitHub 推出 Copilot Workspace:AI 驅動的軟體工程空間
- 「馬斯克的 xAI 示範 AI 新創公司的龐大市場潛力」
- 照片分享社群 EyeEm 將許可使用者的照片以訓練 AI,如果使用者不刪除照片
- 英偉達收購 AI 工作負載管理新創公司 Run:ai
- 英國調查亞馬遜和微軟與 Mistral、Anthropic 和 Inflection 的 AI 合作關係
- Mozilla 發現大多數約會應用並不善於保護使用者資料
- 這款相機以 AI 詩詞交換照片