網路議題

新研究發現 AI 在職場中對父母進行歧視

新研究發現 AI 在職場中對待父母存在歧視準入據科學 X 編輯過程和政策進行審查的註解 編輯在確保內容可信性的同時突出以下特點:事實核查、可靠來源、校對引言在澳大利亞,性別偏見在招聘和職場中根深蒂固。女性平均收入比男性少 23%,較少獲得工作面試邀請,並受到更嚴格的評價。父母偏差是指在工作方面給予父 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

新研究發現 AI 在職場中對父母進行歧視

研究發現 AI 在職場中對待父母存在歧視

準入

據科學 X 編輯過程和政策進行審查的註解 編輯在確保內容可信性的同時突出以下特點:事實核查、可靠來源、校對

引言

在澳大利亞,性別偏見在招聘和職場中根深蒂固。女性平均收入比男性少 23%,較少獲得工作面試邀請,並受到更嚴格的評價。父母偏差是指在工作方面給予父母角色抱有偏見,例如認為他們對工作的關注和承諾比非父母產生更多妨礙。為解決這種偏見,一些常見的策略包括盲篩履歷或盲目聘請,即在申請過程中隱藏申請者的姓名。另一種策略則是使用機器學習(ML)或人工智慧(AI)來部分簡化決策過程。因為 AI 理應是對人類刻板印象無視的。不對嗎?這項研究顯示像遮蔽履歷這樣的策略(這對人類招聘者可能有效)對 AI 來說卻無效。AI 會模擬其訓練資料中存在的偏見已經是眾所周知的。例如,亞馬遜公司曾提出一種自動 CV 篩選系統,但後來發現該系統存在性別偏見,並迅速停用。AI 是否具有歧視性將成為這項研究的關注點。

研究發現

我們的研究對職場中算法的不同級別的性別偏見進行了深入研究。我們發現 AI 可以使用比名字更微妙的性別訊號,並將其納入判斷中。隨著功能強大的生成 AI(如 ChatGPT)的崛起,這變得越發迫切。我們發現,性別在我們的社會中根深蒂固,可以在我們的語言、工作場所和學習領域中體現出來,幾乎不可能從 AI 和人的角度中消除對履歷的性別盲視。那麼,這意味著什麼呢?儘管我們怎麼努力,算法可以透露出您的性別。而可以透露性別的算法又可以用於預測申請者的資質。 ChatGPT 是當前最強大的基於語言的 AI,其對社會的許多方面產生了前所未有的影響,因此開發人員要求停止進一步 AI 實驗,以更好地理解其影響和後果。我們最近的研究是在職場招聘的背景下研究 ChatGPT 中的性別偏見,我們要求它評估申請人的履歷。我們為各種不同的職業構建了高質量、高競爭力的履歷。履歷中的某些申請者是男性,某些是女性。在一半的調查物件中,我們增加了育嬰假空白。所有申請者具有相同的資格和工作經驗,但部分申請者是父母,部分不是。我們向 ChatGPT 展示了這些履歷,要求它對每位申請人的資格進行從零到 100 的評估。我們為六種不同職業的每份履歷重複進行了 30 次,以確保結果的可靠性。接下來的實驗發現,無論我們改變名字,男性和女性的履歷在 ChatGPT 的評估中並無不同。然而當我們增加了育嬰假空白時,我們發現 ChatGPT 將所有職業中的父母評估為較低的資格。這對父親和母親都是如此,而缺席育嬰假則意味著該人在這份工作上的資格較低。性別偏見可能已經從 ChatGPT 的預測能力中消除,但對父母的偏見卻存在。

為什麼這一點很重要?

即使開發人員使 ChatGPT 在性別上沒有偏見,這種偏見也會透過其他機制,例如父母角色,偷偷進入機器學習模型。我們知道,女性在社會中承擔了大部分的照顧工作,而女性的履歷相比男性更有可能出現育嬰假空白。雖然我們不知道 ChatGPT 是否會在現實生活中評估履歷,但我們的研究選取的是一些可能導致偏見的代理變數,而這些變數並不明顯。ChatGPT 中存在性別偏見的可能性是不可忽視的。

語言問題

假設有兩份履歷在所有方面都完全相同,唯一的差異是申請人的性別:一份由男性撰寫,一份由女性撰寫。如果我們將申請者的身份隱藏起來,對於 AI 招聘團隊來說是否還有歧視的空間?我們的研究結果顯示,答案是“是”——對於 AI 來說是如此。透過分析 2,000 份履歷的資料,我們發現男性和女性在同一職業中使用了微妙不同的語言來描述自己的技能和教育背景。例如,我們發現女性在描述技能和教育時使用了明顯更多強調權力較低的動詞(如“協助”,“學習”或“需要”)。問題來了:在後續實驗中,我們的團隊發現 AI 模型將這些微妙的語言差異與性別聯絡在一起。這意味著機器學習模型即使在去除了名字和代名詞之後仍然可以識別出履歷中的性別。如果 AI 能夠根據語言預測性別,那麼它就可以將其作為履歷評分的一個證據。這是一個棘手的問題。

強有力的政策反應

那麼,當我們開始將 AI 融入我們的工作生活時,這對我們意味著什麼?我們的研究表明,“盲篩履歷”可能對人類有效,但對 AI 無效。即使我們隱藏了所有識別性的語言,AI 仍然會從其他語言中識別出性別。要消除最明顯的歧視層面,需要仔細審查偏見,但在還需要對可能導致偏見的不那麼明顯的變數進行進一步研究。這就是我們需要制定監管措施作為對 AI 歧視能力更細緻的回應的原因,這樣可以確保每個人都理解 AI 不是中立或公平的。我們所有人都需要盡自己的責任,確保 AI 對每個人都公平且有益,包括婦女和父母。

本文由澳大利亞墨爾本大學提供

引用:新研究發現 AI 在職場中對待父母存在歧視(2023 年 7 月 24 日),取自 https://techxplore.com/news/2023-07-ai-discriminates-parents-workforce.html

關鍵詞:歧視、AI、職場歧視父母歧視研究、AI 技術、社會議題

Discrimination-AI 歧視,職場歧視,父母歧視,研究,AI 技術,社會議題
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。