微軟推出深偽像創作者
紐約時報 - 專欄作者
市場新工具
微軟 Ignite 會議上推出了一個令人意外的新產品,一個可以建立一個真實的人物化身,並讓該化身說出原本並非該人所說話語的工具。這個新功能叫做 Azure AI Speech text to speech avatar,當前已經進入公開預覽階段,使用者可以透過上傳所要模仿的人的照片和撰寫一個劇本,生成一個說話的化身。微軟在一篇部落格中寫道:「使用文字轉語音化身,使用者可以更有效地透過文字輸入建立影片...進行培訓影片、產品介紹、客戶證言等等。你可以使用這個化身建立對話代理、虛擬助手、聊天機器人等等。」化身可以說多種語言,並且在聊天機器人情境中,它們可以利用像開放 AI 的 GPT-3.5 這樣的 AI 模型來回答顧客的超出指令碼範圍的問題。
道德問題
然而這樣的工具很可能被惡意使用,這一點微軟有所覺察。類似的化身生成技術曾在委內瑞拉被濫用用於製作宣傳和被親中國社交媒體帳戶宣傳的虛假新聞。微軟表示大多數 Azure 使用者在推出時只能使用預先建立的化身,而定製化身當前僅供「有限存取」的情況下使用,需要使用者登記申請,並且「僅適用於某些使用情景」。這一功能引發了許多令人不安的道德問題,最近 SAG-AFTRA 罷工的一個主要症結就是使用 AI 來創造數碼人偶。影視公司最終同意支付演員創作的 AI 生成人偶的費用,但微軟和它的客戶呢?
個人聲音
微軟似乎在相關的生成式人工智慧工具「個人聲音」周圍建立了更多的保障措施。這也是在 Ignite 上推出的一項新功能,可以在幾秒鐘內復制使用者的聲音,只要提供一段一分鐘的語音樣本作為音訊提示。微軟將其宣傳為一種建立個性化語音助手、為內容配音成不同語言以及為故事、有聲書和播客生成獨特的旁白方式。為了避免潛在的法律問題,微軟要求使用者在使用前透過錄製宣告給出「明確的同意」。當前使用這一功能需要填寫一個登入檔單,使用者必須同意只在不涉及使用者生成的或開放性內容的應用中使用個人聲音。
倫理和建議
這些新功能給我們帶來了一系列重要的倫理問題:人工智慧如何影響個人隱私和智慧財產權?這些工具可能被濫用嗎?如何保護演員和普通使用者的權益?在此之前,我們需要進行更深入的討論,甚至實施相應的法律法規來保護廣大使用者的權益。
延伸閱讀
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源
- Google 將在 YouTube 學術影片中推出人工智慧生成的測驗
- Google 在 I/O 主題演講中提到「AI」超過 120 次
- Google 將實現千禧星座技術於 Google 地圖平臺
- 在人工智慧電影節上,人性戰勝科技
- AI 推動社會變革,女性呈現關鍵力量
- 開放 AI (OpenAI)的 ChatGPT 新聞發布:我們當前所知道的事情