微軟推出深偽像創作者
紐約時報 - 專欄作者
市場新工具
微軟 Ignite 會議上推出了一個令人意外的新產品,一個可以建立一個真實的人物化身,並讓該化身說出原本並非該人所說話語的工具。這個新功能叫做 Azure AI Speech text to speech avatar,當前已經進入公開預覽階段,使用者可以透過上傳所要模仿的人的照片和撰寫一個劇本,生成一個說話的化身。微軟在一篇部落格中寫道:「使用文字轉語音化身,使用者可以更有效地透過文字輸入建立影片...進行培訓影片、產品介紹、客戶證言等等。你可以使用這個化身建立對話代理、虛擬助手、聊天機器人等等。」化身可以說多種語言,並且在聊天機器人情境中,它們可以利用像開放 AI 的 GPT-3.5 這樣的 AI 模型來回答顧客的超出指令碼範圍的問題。
道德問題
然而這樣的工具很可能被惡意使用,這一點微軟有所覺察。類似的化身生成技術曾在委內瑞拉被濫用用於製作宣傳和被親中國社交媒體帳戶宣傳的虛假新聞。微軟表示大多數 Azure 使用者在推出時只能使用預先建立的化身,而定製化身當前僅供「有限存取」的情況下使用,需要使用者登記申請,並且「僅適用於某些使用情景」。這一功能引發了許多令人不安的道德問題,最近 SAG-AFTRA 罷工的一個主要症結就是使用 AI 來創造數碼人偶。影視公司最終同意支付演員創作的 AI 生成人偶的費用,但微軟和它的客戶呢?
個人聲音
微軟似乎在相關的生成式人工智慧工具「個人聲音」周圍建立了更多的保障措施。這也是在 Ignite 上推出的一項新功能,可以在幾秒鐘內復制使用者的聲音,只要提供一段一分鐘的語音樣本作為音訊提示。微軟將其宣傳為一種建立個性化語音助手、為內容配音成不同語言以及為故事、有聲書和播客生成獨特的旁白方式。為了避免潛在的法律問題,微軟要求使用者在使用前透過錄製宣告給出「明確的同意」。當前使用這一功能需要填寫一個登入檔單,使用者必須同意只在不涉及使用者生成的或開放性內容的應用中使用個人聲音。
倫理和建議
這些新功能給我們帶來了一系列重要的倫理問題:人工智慧如何影響個人隱私和智慧財產權?這些工具可能被濫用嗎?如何保護演員和普通使用者的權益?在此之前,我們需要進行更深入的討論,甚至實施相應的法律法規來保護廣大使用者的權益。
延伸閱讀
- RPA 供應商如何在 AI 代理人世界保持競爭力
- 元 AI 測試:未能彰顯自身價值,但免費就是免費
- Google 推出新功能“口語練習”,利用人工智慧幫助使用者提高英文能力
- 科技巨頭 xAI 競爭開放人工智慧,吸金 60 億美元。推動社交網路 X 成為股東
- Google Cloud 迎來晴天
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- 安德瑞爾在五角大樓計畫中推進無人駕駛戰鬥機的程式
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞