網路議題

人工智慧聊天機器人應該能改善醫療保健,但研究顯示有些聊天機器人正在延續種族主義。

AI 聊天機器人在改善醫療保健中存在的問題:種族主義的滋長簡介斯坦福醫學院的研究人員最近進行的一項研究發現,受到大眾歡迎的 AI 聊天機器人如 ChatGPT 和 Google 的 Bard 等在醫療領域中滋長了種族主義、已經被證實錯誤的醫學觀念,引發了對這些工具可能加劇黑人患者健康差異的擔憂。這些 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人工智慧聊天機器人應該能改善醫療保健,但研究顯示有些聊天機器人正在延續種族主義。

AI 聊天機器人在改善醫療保健中存在的問題:種族主義的滋長

簡介

斯坦福醫學院的研究人員最近進行的一項研究發現,受到大眾歡迎的 AI 聊天機器人如 ChatGPT 和 Google 的 Bard 等在醫療領域中滋長了種族主義、已經被證實錯誤的醫學觀念,引發了對這些工具可能加劇黑人患者健康差異的擔憂。這些聊天機器人依賴於從網路上收集的大量文字進行訓練,而研究發現,它們對於與腎功能、肺功能和皮膚厚度等醫學問題的回答充滿了錯誤的觀念和謬誤。

種族主義在醫療中的影響

這項研究不僅揭示了 AI 聊天機器人在醫療領域中存在的問題,還對種族主義對健康不平等的負面影響提出了警示。根據專家的擔憂,這些系統可能造成現實世界的傷害,並放大了在醫學機構中長期存在的種族主義問題,例如醫生對黑人患者的疼痛評估偏低、診斷問題、以及建議減輕病痛的措施不足。種族主義觀念已被證實是錯誤的,多年來專家一直努力從醫療機構中消除這些觀念。

AI 聊天機器人的挑戰

研究報告指出,在他們對四個不同模型(包括 ChatGPT、GPT-4、Google 的 Bard 和 Anthropic 的 Claude)的測試中,所有模型在關於腎功能、肺功能和皮膚厚度等醫學問題的回答中都失敗了。有時,這些機器人不僅加深了關於黑人和白人之間生物差異的虛假觀念,還計算出了基於種族的不實方程式。這些錯誤觀點已經導致醫療提供者對黑人患者的疼痛評估偏低、診斷問題以及建議減輕病痛的措施不足。

問題的解決方案

在回應這項研究時,OpenAI 和 Google 表示他們一直在努力減少模型中的偏見,同時引導使用者明確聊天機器人不能替代醫療專業人員。然而醫生對於使用聊天機器人幫助日常工作的越來越多,這種情況仍然引發關切。醫療保健系統和科技公司在近年來對生成式人工智慧進行了大量投資,儘管很多仍然處於生產階段,但一些工具已經在臨床環境中進行了試點評估。然而醫學專業職能和廣泛使用的聊天機器人之間存在著區別。

結論

這項研究的結果提醒我們,在 AI 聊天機器人應用於醫療保健之前,我們需要確保它們不僅無種族主義偏見,還要確保它們可靠、一致且可靠。醫生和科學家們正在進行不斷的努力,以減少 AI 模型中的偏見和使其更可靠。將來的研究應該繼續調查這些模型的潛在偏見和診斷短板,以實現更公平、平等和安全的醫療保健系統。

參考資料:

Burke, G. & O'Brien, M. (2023, October 20). AI chatbots are supposed to improve health care. But research says some are perpetuating racism. Associated Press. Retrieved from https://techxplore.com/news/2023-10-ai-chatbots-health-perpetuating-racism.html

Technology-人工智慧,聊天機器人,醫療保健,研究,種族主義

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。