網路議題

一個支援穩定傳播的團體計劃開源情感檢測人工智慧

開放原始碼情感檢測 AI:一個穩定傳播團體的計劃簡介在 2019 年,亞馬遜升級了其 Alexa 助手,加入了一項功能,使其能夠檢測客戶是否感到沮喪,並以更多同情回應。例如,如果客戶要求 Alexa 播放一首歌,而它播放的是錯誤的歌曲,然後客戶帶著不悅的口氣說:“No, Alexa”,Alexa 可 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

一個支援穩定傳播的團體計劃開源情感檢測人工智慧

開放原始碼情感檢測 AI:一個穩定傳播團體的計劃

簡介

在 2019 年,亞馬遜升級了其 Alexa 助手,加入了一項功能,使其能夠檢測客戶是否感到沮喪,並以更多同情回應。例如,如果客戶要求 Alexa 播放一首歌,而它播放的是錯誤的歌曲,然後客戶帶著不悅的口氣說:“No, Alexa”,Alexa 可能會道歉並要求澄清。如今穩定傳播(Stable Diffusion)的資料集背後的團隊希望以零成本將類似的情感檢測功能帶給每個開發者。本週,建立影象和文字資料集用於訓練生成型 AI(包括穩定傳播)的非營利組織 LAION 宣布了“Open Empathic”計劃。Open Empathic 旨在透過 LAION 的話語,“為開源 AI 系統配備同理心和情感智慧”。LAION 的聯合創始人之一克裏斯託夫·舒曼(Christoph Schuhmann)在接受 TechCrunch 的電子郵件存取時表示:“LAION 團隊擁有醫療保健、教育和機器學習研究背景,他們發現了開源社區中的一個空白:情感 AI 大多被忽視。”他補充道:“就像我們對於非透明 AI 壟斷引發 LAION 成立的擔憂一樣,在這裡我們感到同樣的緊迫感。”透過 Open Empathic,LAION 正在招募志願者提交音訊剪輯到一個資料庫中,用於建立能“理解”人類情感的 AI,包括聊天機器人和文字到語音模型。

背景

LAION(Large-scale Artificial Intelligence Open Network)是一個由舒曼和其他數位技術愛好者在 2021 年初創立的非營利組織。透過捐款和公共研究資助,包括 AI 新創公司 Hugging Face 和穩定傳播背後的供應商 Stability AI,LAION 的宣告是將 AI 研究和開發資源民主化,從訓練資料開始。LAION 的目標是“利用 AI 的力量,以真正惠及社會的方式”,這是一個明確的使命。

Open Empathic 計劃

透過 Open Empathic 計劃的第一階段,LAION 建立了一個網站,讓志願者對 YouTube 剪輯進行註解。志願者可以填寫一份詳細的表格,包括剪輯的轉錄文字、音訊和影片描述以及剪輯中的人物年齡、性別、口音(例如“英國英語”)、覺醒程度(注意力,不涉及性)和價值程度(“愉快”與“不愉快”)。表格中的其他欄位與剪輯的音訊質量和背景噪音的存在(或不存在)有關。但是大部分的注意力都集中在人物的情感上,或者至少是志願者認為他們有的情感上。志願者可以從一系列下拉選單中選擇單個或多個情感,範圍從“快樂”、“輕快”和“迷人”到“沉思”和“引人入勝”。LAION 的目標是建立一個 AI,它不僅理解文字,還能理解表情和語氣的微妙變化,使人工智慧與人類的互動更加真實和具有共鳴。

情感檢測的問題

除了亞馬遜對 Alexa 的嘗試之外,新創公司和科技巨頭都在探索開發能夠檢測情感的人工智慧,用途包括銷售培訓和防止因疲勞引起的事故。2016 年,蘋果收購了一家名為 Emotient 的聖地亞哥公司,該公司致力於開發基於人工智慧算法來分析面部表情。去年五月,瑞典的 Smart Eye 收購了 MIT 的分支機構 Affectiva,該公司曾聲稱其技術可以在 1.2 秒內檢測到語音中的憤怒或沮喪。此外微軟在 2021 年四月購買的語音識別平臺 Nuance 已經展示了一款可以從人臉表情中分析駕駛員情緒的汽車產品。其他正在興起的情感檢測技術供應商還包括 Hume、HireVue 和 Realeyes,他們的技術被應用於評估觀看者對某些廣告的反應。一些僱主使用情感檢測技術去評估潛在員工的共情和情商。學校已經使用它來監測學生在課堂上的參與度,並在學生在家中遠端學習時監測他們的參與度。情感檢測 AI 已經被政府用於識別“危險人物”,並在美國、匈牙利、拉脫維亞和希臘的邊境控制站進行測試。就其部分,LAION 團隊構想了這項技術在機器人、心理學、專業培訓、教育甚至遊戲中的有益且無害的應用。儘管如此大部分情感檢測技術在科學上並不成熟。情感的普遍特徵幾乎不存在,這就使情感檢測 AI 的準確性受到質疑。大多數情感檢測系統基於 20 世紀 70 年代心理學家保羅·埃克曼(Paul Ekman)的研究成果建立,但後續研究,包括埃克曼自己的研究,都支援了不同背景的人們表達情感方式的主觀差異。例如,旨在表達恐懼的表情在馬來西亞是描述威脅或憤怒的刻板印象。在埃克曼的後期作品中,他提到美國和日本學生對暴力電影的反應很不一樣,如果別人(尤其是權威人物)在場,日本學生會採取“完全不同的表情”。此外人的聲音也具有各種特徵,包括殘疾人士、患有自閉症等疾病的人以及說其他語言和方言(如非裔美國人俚語英語)。一位以法語為母語的人在用英語填寫問卷時可能會停頓或不確保地發音,這可能會被不熟悉的人誤解為情感標記。事實上情感檢測 AI 的一個很大的問題是偏見,這是由註釋者帶入訓練情感檢測模型的隱性和明確偏見引起的。例如,在 2019 年的一項研究中,科學家們發現標注者更有可能將 AAVE 中的短語標記為比 AAVE 的美式英語等效詞彙更有毒。性取向和性別認同也可能會嚴重影響標注者認為哪些詞語和短語是具有毒性的,同樣,明顯的偏見也可能會產生影響。一些常用的開源影象資料集被發現包含帶有種族主義、性別歧視和其他冒犯性標籤的內容。這種下遊效應可以非常顯著。例如,一個名為 Retorio 的 AI 招聘平臺在對不同穿著(如眼鏡和頭巾)的同一個求職者作出不同反應。在 2020 年的一項 MIT 研究中,研究人員顯示,分析人臉的算法可能會對某些面部表情(如微笑)產生偏見,從而降低其準確性。最近的研究還表明,流行的情感分析工具往往會將更多的負面情緒指定給黑人男性的面孔而不是白人面孔。

對過程的尊重

那麼 LAION 團隊將如何解決這些偏見問題,確保在 Open Empathic 資料集中,白人不超過黑人的比例,非二進位制人士不會被賦予錯誤的性別,患有心情障礙的人不會被標記為他們沒有意圖表達的情感?當前並不完全清楚。舒曼聲稱 Open Empathic 的訓練資料提交過程並不是一個“敞開的大門”,LAION 已經建立了系統來“確保貢獻的真實性”。他補充說:“我們可以取證使用者的意圖,並始終檢查註釋的質量。”然而 LAION 之前的資料集並不完美。對 LAION 的約 4 億資料集之一進行的一些分析發現了描繪性侵、強姦、仇恨符號和暴力的照片。此外 LAION 約 4 億資料集也充斥著偏見,例如在詞彙“CEO”下返回男性的圖片而不是女性的圖片,在詞彙“terrorist”下返回的是中東男性的圖片。舒曼此次寄希望於社區成員可以檢視這些問題。他說:“我們相信來自世界各地的業餘科學家和愛好者聚集在一起,為我們的資料集作出貢獻。儘管我們是開放和協作的,但我們在資料的質量和真實性方面更加重視。”至於以 Open Empathic 資料集訓練的任何情感檢測 AI 的用途,不論是否存在偏見,LAION 堅持著其開源原則,即使這意味著 AI 可能會被濫用。舒曼說:“使用 AI 來理解情感是一項強大的事業,但也不是沒有挑戰的。想像一下,如果只有少數幾個人可以使用先進的技術,而大多數公眾卻一無所知,這種不平衡可能會導致技術的濫用甚至操縱。”對於 AI,放手不管的方法有時會使模型建立者遭受後果,正如穩定傳播如今被用來建立兒童性虐待材料和未經同意的深度學習技術所示。某些隱私權和人權倡議者,包括歐洲數位權利和 Access Now 等組織,已經呼籲對情感識別進行全面禁止。最近透過的歐盟 AI 法案禁止在執法、邊境管理、工作場所和學校中使用情感識別技術。一些公司已經自願撤回其情感檢測 AI,例如微軟,以回應公眾的強烈反對。儘管如此 LAION 團隊對所涉及的風險程度感到舒適,並相信開放式的開發過程。“我們歡迎研究人員探索、提出改進意見和發現問題。”LAION 的聯合創始人羅伯特·卡茲馬雪克(Robert Kaczmarczyk)說。“就像維基百科依賴於它的社區貢獻一樣,OpenEmpathic 也依靠社區參與,確保它的透明性和安全性。”透明?可以肯定。安全?時間會證實一切。

評論

開放原始碼情感檢測 AI 是一個具有潛力的領域,可以在機器人、心理學、教育和其他領域帶來重大的影響。然而我們必須非常慎重地處理這個問題,因為情感檢測技術存在著許多問題和挑戰。

科學依據的不確保性

情感檢測的科學基礎非常不確保。許多情感檢測系統建立在心理學家保羅·埃克曼的工作基礎之上,但後續研究表明,不同背景的人們表達情感的方式存在重大差異。這對情感檢測 AI 的準確性提出了質疑。此外人們的表情、語氣和聲音存在差異,這也增加了情感檢測的困難。

偏見和不平等問題

情感檢測 AI 存在偏見的風險。由於注釋者的隱性和明顯偏見,訓練情感檢測模型的資料集可能帶來不平等和歧視。這樣的偏見可能會影響 AI 對不同性別、種族和文化背景的人們的判斷。研究表明,情感分析工具對黑人男性的面孔往往會賦予更多的負面情緒。解決這些問題並不容易,但必須嚴肅對待。

建議

在開發情感檢測 AI 時,我們應該遵循以下建議:

多元化資料集

確保資料集的多樣性,包括不同性別、種族和文化背景的人們。這樣可以減少偏見和不平等的風險。此外要確保資料集的規模足夠大,以充分反映真實世界的多樣性。

透明和合作開發

開放原始碼的理念非常重要,可以吸引更多的人參與開發和審閱,從而提高透明度和安全性。此外我們應該歡迎對情感檢測 AI 的研究人員進行評審和提出改進意見,以改進系統的準確性和公正性。

重新評估使用場景和風險

我們應該重新評估情感檢測 AI 的使用場景和風險。在一些情況下,情感檢測可能會導致隱私和人權問題,甚至可能被濫用。我們應該明確約束和監管情感檢測技術的使用,以保護個人的權益。

總之開放原始碼情感檢測 AI 的計劃具有潛力,但也存在著重大的問題和挑戰。我們應該以謹慎和責任的態度處理這個問題,確保人工智慧技術能夠真正造福社會。

ArtificialIntelligence-開源技術、情感檢測、人工智慧、團體計劃、穩定傳播
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。