#偏見

9 篇文章

技術新聞網站:CodeSignal 執行長 Tigran Sloyan 談關閉人才缺口和減少招聘中的偏見
709

技術新聞網站:CodeSignal 執行長 Tigran Sloyan 談關閉人才缺口和減少招聘中的偏見

CodeSignal CEO Tigran Sloyan on Closing the Talent Gap and Mitigating Bias in HiringBy 這週,在「Found」節目中,我們有幸邀請到技能評估平臺 CodeSignal 的聯合創始人兼 CEO Tigran Sloy

抖音爭議:面對禁止呼聲,否認反以色列偏見
968

抖音爭議:面對禁止呼聲,否認反以色列偏見

TikTok 在以色列-哈馬斯戰爭中否認反以色列偏見的指控爭議指控美國部分政客最近再次提出禁止 TikTok 的聲音,原因是該平臺上支援巴勒斯坦內容的流行。參議員喬什·霍利(R-MO)在最近的一封公開信中表示對以色列發出批評的內容可能會“向美國人宣傳”。一些美國政客指責 TikTok 影響年輕選民對

如何測試人工智慧去偏見方法?研究人員創造出新協定!
844

如何測試人工智慧去偏見方法?研究人員創造出新協定!

研究人員建立測試 AI 去偏見方法的協定背景由 Brock 大學領導的研究團隊開發了一種幫助程式員評估語言模型(如 ChatGPT)去除偏見方法的可靠性的方式。這些語言模型作為人工智慧(AI)生成文字時,有助於區分適當和不適當的言論。該研究團隊在最近發表的論文《以有好有壞方式去偏見:測量語言模型的去

研究發現:人類可能也能繼承人工智慧的偏見
892

研究發現:人類可能也能繼承人工智慧的偏見

研究揭示人類可以繼承人工智慧的偏見背景西班牙畢爾巴鄂的德烏斯託大學的心理學家 Lucía Vicente 和 Helena Matute 的最新研究提供了證據,證實人們可以在他們的決策中繼承人工智慧的偏見(即人工智慧輸出中的系統性錯誤)。人工智慧系統在能夠像人類一樣進行對話的成就之下,給這項技術帶來

ChatGPT 比之前更擅長處理有爭議性的問題:從偏見到審核
824

ChatGPT 比之前更擅長處理有爭議性的問題:從偏見到審核

ChatGPT 在處理爭議性問題上比以往更好:從偏見到審核綜述最近,IMDEA Networks Institute 與薩裏大學、巴倫西亞大學以及倫敦國王學院合作,進行了一項新的研究,結果顯示,人們對新一代人工智慧平臺 ChatGPT 在爭議性議題上發表直接立場的趨勢有所下降。該研究的目的是探索 C

世界各地的新聞部門正在使用人工智慧最佳化工作,儘管對於偏見和準確性的擔憂
919

世界各地的新聞部門正在使用人工智慧最佳化工作,儘管對於偏見和準確性的擔憂

新聞部門利用人工智慧最佳化工作,儘管存在偏見和準確性問題先導自生成式人工智慧的出現以來,包括新聞業在內的各個領域都加速了對人工智慧的應用。當人工智慧出現問題時,它在新聞業中表現最為明顯。一些新聞媒體在使用人工智慧撰寫文章時常常存在錯誤或冒犯性建議的問題。人們普遍擔心,人工智慧將被用來以較低成本取代新

揭露:剖析種子投資者的偏見與激勵因素
601

揭露:剖析種子投資者的偏見與激勵因素

揭露:深入研究種子投資者的偏見和激勵因素馬田勒()報導隨著 YC 創業者孵化器的 Demo Day 即將到來,有關 2 百萬美元募資計劃的討論也隨之而來。儘管許多投資者對於這種籠中之鳥的募資方式不贊成,YC 的合夥人們仍然堅定支援這種模式,甚至 YC 的創始人保羅·格雷厄姆也在辯護該模式。作為一個長

元深度學習發布資料集,檢驗電腦視覺模型的偏見
994

元深度學習發布資料集,檢驗電腦視覺模型的偏見

關於 FACET 資料集的公平性評估背景近年來隨著人工智慧技術的迅速發展,尤其是在電腦視覺領域,對於模型是否存在偏見的擔憂越來越大。這些偏見可能根植於資料集的不平衡性,或者是機器學習算法的設計缺陷。由於這些偏見可能對社會造成嚴重的影響,各界對公平性評估的需求逐步增加。Meta 釋放 FACET 資料

Meta 釋出資料集,檢驗電腦視覺模型是否存在偏見
875

Meta 釋出資料集,檢驗電腦視覺模型是否存在偏見

Meta 釋出資料集探測電腦視覺模型的偏見概述最近,Meta 釋出了一個名為 FACET 的新 AI 基準,旨在評估對照片和影片中的事物進行分類和檢測的 AI 模型的「公正性」,其中包括人類。這個資料集由 3.2 萬張影象組成,標記了 5 萬個人類,由人類註釋者進行標記。FACET 考慮了與職業和活

«12»