
研究揭示人類可以繼承人工智慧的偏見
背景
西班牙畢爾巴鄂的德烏斯託大學的心理學家 Lucía Vicente 和 Helena Matute 的最新研究提供了證據,證實人們可以在他們的決策中繼承人工智慧的偏見(即人工智慧輸出中的系統性錯誤)。人工智慧系統在能夠像人類一樣進行對話的成就之下,給這項技術帶來了高度可靠的形象。越來越多的專業領域正在實施基於人工智慧的工具,以支援專家的決策,以減少他們決策中的錯誤。然而這項技術並不沒有風險,這是由於人工智慧結果中的偏見。我們必須考慮到,用於訓練人工智慧模型的資料反映了過去人類的決策。如果這些資料隱藏著系統性錯誤的模式,人工智慧算法將學習並重現這些錯誤。事實上廣泛的證據表明,人工智慧系統確實會繼承和放大人類的偏見。
研究結果
Vicente 和 Matute 的研究的最重要的發現是,相反的效果也可能發生:人類可以繼承人工智慧的偏見。也就是說,不僅人工智慧會從人類資料中繼承其偏見,而且人們還可以從人工智慧中繼承這些偏見,有可能陷入一個危險的迴圈中。
研究人員進行了一系列的三個實驗,志願者進行了一個醫學診斷任務。其中一組受試者在此任務中受到了一個有偏見的人工智慧系統的幫助(該系統表現出一個系統性的錯誤),而對照組則沒有受到幫助。人工智慧、醫學診斷任務和疾病都是虛構的。整個設定是一個模擬,以避免對現實情況的干擾。那些受到有偏見的人工智慧系統幫助的受試者和人工智慧犯了同樣的錯誤,而對照組沒有犯這些錯誤。因此人工智慧的建議影響了受試者的決策。然而研究的最重要的發現是,在與人工智慧系統互動後,那些志願者在切換到不受此支援的診斷任務時繼續模仿它的系統性錯誤。換句話說,那些首先受到有偏見的人工智慧幫助的參與者在沒有這種支援的情況下復制了它的偏見,從而顯示出了一種繼承的偏見。而對照組的受試者,在任務開始時就沒有受到幫助,所以沒有觀察到這種效果。
這些結果表明,人工智慧模型提供的有偏訊息可能對人類的決策產生持久的負面影響。人工智慧偏見的繼承效應的發現,指出了有必要進一步進行心理學和跨學科研究,以探討人工智慧與人類的互動。此外還需要基於證據的監管來確保公平和道德的人工智慧,需考慮不僅人工智慧技術特徵,還有人工智慧和人類協作的心理因素。
結論
這項研究的結果提醒我們,人工智慧不僅可以受到人類的偏見影響,而且它的偏見可能會被人類繼承並傳遞下去。這一發現對於我們理解和應對人工智慧的影響至關重要。
作為社會大眾,我們應該關注這一問題,特別是當人工智慧越來越多地在各個領域應用時。我們需要確保人工智慧的使用是公平和道德的,而不會加劇社會中的不平等現象。同時政府和學術界也應該加固對人工智慧的監管,確保它的應用不會對人類的健康和福祉產生負面影響。
這項研究還提出了一個重要的問題,即我們應該如何確保人工智慧的可信度和公正性。對於訓練資料的選擇和處理以及人工智慧算法的設計和最佳化都需要進一步的探索和討論。同時我們還需要建立相應的法律和道德框架,以指導人工智慧的使用,確保它的執行符合社會的價值觀和倫理標準。
最後這項研究提醒我們,科學和技術的發展必須與人文價值和道德原則相結合。只有在這樣的基礎上,人工智慧才能為人類帶來實質的利益,並成為促進社會進步和幸福的工具。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!