AI 聊天機器人在改善醫療保健中存在的問題:種族主義的滋長
簡介
斯坦福醫學院的研究人員最近進行的一項研究發現,受到大眾歡迎的 AI 聊天機器人如 ChatGPT 和 Google 的 Bard 等在醫療領域中滋長了種族主義、已經被證實錯誤的醫學觀念,引發了對這些工具可能加劇黑人患者健康差異的擔憂。這些聊天機器人依賴於從網路上收集的大量文字進行訓練,而研究發現,它們對於與腎功能、肺功能和皮膚厚度等醫學問題的回答充滿了錯誤的觀念和謬誤。
種族主義在醫療中的影響
這項研究不僅揭示了 AI 聊天機器人在醫療領域中存在的問題,還對種族主義對健康不平等的負面影響提出了警示。根據專家的擔憂,這些系統可能造成現實世界的傷害,並放大了在醫學機構中長期存在的種族主義問題,例如醫生對黑人患者的疼痛評估偏低、診斷問題、以及建議減輕病痛的措施不足。種族主義觀念已被證實是錯誤的,多年來專家一直努力從醫療機構中消除這些觀念。
AI 聊天機器人的挑戰
研究報告指出,在他們對四個不同模型(包括 ChatGPT、GPT-4、Google 的 Bard 和 Anthropic 的 Claude)的測試中,所有模型在關於腎功能、肺功能和皮膚厚度等醫學問題的回答中都失敗了。有時,這些機器人不僅加深了關於黑人和白人之間生物差異的虛假觀念,還計算出了基於種族的不實方程式。這些錯誤觀點已經導致醫療提供者對黑人患者的疼痛評估偏低、診斷問題以及建議減輕病痛的措施不足。
問題的解決方案
在回應這項研究時,OpenAI 和 Google 表示他們一直在努力減少模型中的偏見,同時引導使用者明確聊天機器人不能替代醫療專業人員。然而醫生對於使用聊天機器人幫助日常工作的越來越多,這種情況仍然引發關切。醫療保健系統和科技公司在近年來對生成式人工智慧進行了大量投資,儘管很多仍然處於生產階段,但一些工具已經在臨床環境中進行了試點評估。然而醫學專業職能和廣泛使用的聊天機器人之間存在著區別。
結論
這項研究的結果提醒我們,在 AI 聊天機器人應用於醫療保健之前,我們需要確保它們不僅無種族主義偏見,還要確保它們可靠、一致且可靠。醫生和科學家們正在進行不斷的努力,以減少 AI 模型中的偏見和使其更可靠。將來的研究應該繼續調查這些模型的潛在偏見和診斷短板,以實現更公平、平等和安全的醫療保健系統。
參考資料:
Burke, G. & O'Brien, M. (2023, October 20). AI chatbots are supposed to improve health care. But research says some are perpetuating racism. Associated Press. Retrieved from https://techxplore.com/news/2023-10-ai-chatbots-health-perpetuating-racism.html
延伸閱讀
- AI 晶片新創 DEEPX 以 5.29 億美元估值成功籌得 8000 萬美元 C 輪融資
- Fairgen「提振」調查結果,利用合成資料和人工智慧生成的回應
- 用 Retell AI 讓公司打造「語音代理人」來應答電話
- OpenAI 揭開 AI 祕密指令的面紗
- AI 助您創辦者更快、更輕鬆地籌集資金嗎?
- 盧西德機器人獲得 900 萬美元用於無人機清潔任何地方
- 以色列新創公司 Panax 籌集了 1,000 萬美元 A 輪融資,用於其基於人工智慧的現金流管理平臺
- Reddit 測試使用基於 LLM 的人工智慧進行自動整站法語翻譯
- 三星醫聲將以 9270 萬美元收購法國人工智慧超聲波新創公司 Sonio
- 網際網路共同創始人 Robert Kahn 早在幾十年前就已經做到了加密、人工智慧和網際網路嗎?