使用者資料製造的 AI 複製人面臨驚人風險
依據大量的使用者資料,人工智慧可以製造自我數位複本。這個複本長得像你,說話與你如出一轍,在行為上也仿佛深入骨髓。這麼一個聽起來刺激極致的情境,讓人們會有怎樣的感受呢?不列顛哥倫比亞大學最近的研究聚焦在這個問題上。
AI 複製人
有關人工智慧的深度學習技術,例如互動深度假面、聲音轉換和虛擬演員等的進展,可以模擬個人的形象和行為。這種由人工智慧創造的個人映象被稱為「AI 複製人」。從人們的現實樣貌、對話方式或行為模式等,可以創造出這些 AI 複製人,其深度可以是不同的,可以重現某些獨特的特徵,也可以創造出接近完美的數位孿生體。AI 複製人是互動技術,旨在解讀使用者和環境輸入,進行內部處理並產生可感知的輸出。然而它們是基於個人資料構建的人工智慧技術。隨著我們產生的個人資料量不斷增加,AI 複製人在複製我們的行為方面的可靠性也隨之增加。
恐懼、分裂和錯誤記憶
我們在人機互動的 ACM 會議論文中發表了三種 AI 複製人風險的定義:恐懼自己的幽靈、身份碎片和活生生的記憶。首先可以說恐懼自己的幽靈不僅是對 AI 複製人本身的恐懼,還包括其潛在誤用的危險。參與者擔心,他們的數位孿生體可能會利用和替換他們的身份。其次存在身份碎片的威脅。製造復制品會威脅到被復制的人的獨特性、整體性和一致性。換句話說,人們擔心複製的過程中自己的獨特性和個性的一部分可能會消失。最後參與者表達了關於「活生生的記憶」的擔憂。當一個人與現有關係的孿生體互動時,這會造成對個人的錯誤描述,或者他們會對孿生體產生過度依附的情感,改變人際關係的動態。
儲存人性價值觀
顯然,發展和部署 AI 複製人擁有深遠的影響。我們的研究不僅為道德人工智慧的重要對話提供了有價值的見解,而且提出了一個以身份和真實性為優先考慮的 AI 複製人設計框架。所有利益相關者,包括設計師、開發人員、政策制定者和終端使用者,都需要負責任地適應這條尚未開拓的領域。這包括認真考慮審核和使用者資料過期策略,以預防誤用和過度依賴。此外必須要認識到 AI 複製人技術對個人身份和人際關係的影響只是冰山一角。當我們繼續探索這一新興領域時,我們的研究結果可以作為指南,引導我們優先考慮道德問題和人性價值觀。
延伸閱讀
- 頭條新聞:頂級公司專頁功能即將上線,搭載 AI 及行銷工具助您擴充套件觀眾量
- Amazon Music 跟隨 Spotify 推出自己的 AI 播放清單生成器 Maestro
- 「Facebook 與 Instagram AI 生成的裸照遭調查」
- 新聞標題:Meta 在 Instagram 測試 AI 動力搜尋欄
- Google 計劃透過兩款新的 10 美元 Workspace 附加元件來實現 AI 的盈利化
- Multiverse 視界養成獨角獸收購 Searchlight,以 AI 為重心
- Anthropic 找到了一個讓 AI 提供未知答案的技巧 + TechCrunch 分鐘: Anthropic 如何獲得 AI 提供未知答案
- 資料庫公司 DataStax 收購低程式碼 AI 平臺 Langflow 的新創公司
- Aerospike 籌得 1 億美元,加速 AI 繁榮,打造即時資料庫平臺
- Brave 推出 iPhone 與 iPad 上的 AI 助理