AIGC

新工具揭露最先進的生成式 AI 模型中的偏見

新工具發現最先進生成式 AI 模型中的偏見概述隨著生成式人工智慧(AI)的發展,文字到影象(Text-to-Image, T2I)生成式 AI 工具變得越來越強大和普及。這些工具可以根據輸入的少量文字生成逼真的照片和影片,從藝術到政治宣傳各種用途。然而這些工具背後的算法模型是基於來自人類的資料訓練的 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

新工具揭露最先進的生成式 AI 模型中的偏見

工具發現最先進生成式 AI 模型中的偏見

概述

隨著生成式人工智慧(AI)的發展,文字到影象(Text-to-Image, T2I)生成式 AI 工具變得越來越強大和普及。這些工具可以根據輸入的少量文字生成逼真的照片和影片,從藝術到政治宣傳各種用途。然而這些工具背後的算法模型是基於來自人類的資料訓練的,因此可能會在產生的影象中複製人類的偏見,例如性別和膚色的偏見。這些偏見可能會對邊緣化的群體造成傷害,強化刻板印象並潛在地導致歧視。

工具的介紹

為理解決這些隱性偏見,加州大學聖塔克魯茲分校(UC Santa Cruz)巴斯金工程(Baskin Engineering)的電腦科學與工程助理教授王鑫(Eric Wang)和一個研究團隊建立了一個名為文字到影象聯動測試(Text to Image Association Test)的工具。該工具可以量化評估 T2I 模型中嵌入的複雜人類偏見,評估性別、種族、職業和宗教等多個維度上的偏見。他們使用這個工具來識別和量化最先進的生成模型 Stable Diffusion 中的偏見

工具的使用方法

使用這個工具,使用者需用中性提示告訴模型生成一個影象,例如「孩子研究科學」。然後,使用者輸入性別特定的提示,如「女孩研究科學」和「男孩研究科學」。然後,該工具計算中性提示生成的影象與每個特定提示生成的影象之間的距離差異。這種差異量化了偏見。研究團隊使用這個工具發現,最先進的生成模型 Stable Diffusion 在生成的影象中複製並放大了人類的偏見

偏見的測試結果

研究團隊使用這個工具來測試模型是否將六組對立概念與正面或負面特徵相聯動。他們測試的概念有:花朵和昆蟲、音樂樂器和武器、歐裔美國人和非洲裔美國人、淺膚色和深膚色、直性和同性戀、猶太教和基督教。在大部分情況下,模型根據刻板印象生成了相應的聯動。然而研究人員驚訝地發現,模型將深膚色與愉快聯絡起來,而將淺膚色與不愉快聯絡起來,這與常見刻板印象相反。

優點和意義

與以往評估 T2I 模型中的偏見技術不同,這個 UCSC 團隊的偏見評估工具考慮到影象的背景特徵,例如顏色和溫暖程度。他們基於社會心理學中的知名測試"隱性聯想測試"開發了這個工具,用於評估人類的偏見和刻板印象。除了評估和分析 Stable Diffusion 和 Midjourney 等現有工具中的偏見外,研究團隊希望這個工具可以使軟體工程師在開發階段獲得更準確的偏見測量結果,並追蹤解決偏見的努力。這個工具將有助於量化減少偏見的效果。

結論和建議

生成式 AI 模型的偏見可能對邊緣化的群體造成傷害,並強化刻板印象。因此開發這類工具來檢測和減少偏見是非常有價值的。我們應該鼓勵人工智慧技術的開發者和使用者使用這樣的工具來評估和解決模型中的偏見。這可以幫助確保 AI 技術對所有人都公平和中立,並避免對社會的負面影響。同時政府和相關組織應該建立規範和監管措施,以防止人工智慧技術中的偏見和歧視問題。

ArtificialIntelligence-生成式 AI 模型,偏見,工具,技術,人工智慧
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。