
AI 聊天機器人在改善醫療保健中存在的問題:種族主義的滋長
簡介
斯坦福醫學院的研究人員最近進行的一項研究發現,受到大眾歡迎的 AI 聊天機器人如 ChatGPT 和 Google 的 Bard 等在醫療領域中滋長了種族主義、已經被證實錯誤的醫學觀念,引發了對這些工具可能加劇黑人患者健康差異的擔憂。這些聊天機器人依賴於從網路上收集的大量文字進行訓練,而研究發現,它們對於與腎功能、肺功能和皮膚厚度等醫學問題的回答充滿了錯誤的觀念和謬誤。
種族主義在醫療中的影響
這項研究不僅揭示了 AI 聊天機器人在醫療領域中存在的問題,還對種族主義對健康不平等的負面影響提出了警示。根據專家的擔憂,這些系統可能造成現實世界的傷害,並放大了在醫學機構中長期存在的種族主義問題,例如醫生對黑人患者的疼痛評估偏低、診斷問題、以及建議減輕病痛的措施不足。種族主義觀念已被證實是錯誤的,多年來專家一直努力從醫療機構中消除這些觀念。
AI 聊天機器人的挑戰
研究報告指出,在他們對四個不同模型(包括 ChatGPT、GPT-4、Google 的 Bard 和 Anthropic 的 Claude)的測試中,所有模型在關於腎功能、肺功能和皮膚厚度等醫學問題的回答中都失敗了。有時,這些機器人不僅加深了關於黑人和白人之間生物差異的虛假觀念,還計算出了基於種族的不實方程式。這些錯誤觀點已經導致醫療提供者對黑人患者的疼痛評估偏低、診斷問題以及建議減輕病痛的措施不足。
問題的解決方案
在回應這項研究時,OpenAI 和 Google 表示他們一直在努力減少模型中的偏見,同時引導使用者明確聊天機器人不能替代醫療專業人員。然而醫生對於使用聊天機器人幫助日常工作的越來越多,這種情況仍然引發關切。醫療保健系統和科技公司在近年來對生成式人工智慧進行了大量投資,儘管很多仍然處於生產階段,但一些工具已經在臨床環境中進行了試點評估。然而醫學專業職能和廣泛使用的聊天機器人之間存在著區別。
結論
這項研究的結果提醒我們,在 AI 聊天機器人應用於醫療保健之前,我們需要確保它們不僅無種族主義偏見,還要確保它們可靠、一致且可靠。醫生和科學家們正在進行不斷的努力,以減少 AI 模型中的偏見和使其更可靠。將來的研究應該繼續調查這些模型的潛在偏見和診斷短板,以實現更公平、平等和安全的醫療保健系統。
參考資料:
Burke, G. & O'Brien, M. (2023, October 20). AI chatbots are supposed to improve health care. But research says some are perpetuating racism. Associated Press. Retrieved from https://techxplore.com/news/2023-10-ai-chatbots-health-perpetuating-racism.html
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!