
Google 的醫療人工智慧聊天機器人已在醫院進行測試
綜述
根據《華爾街日報》的報導,Google 的 Med-PaLM 2,一種旨在回答醫療訊息問題的人工智慧工具,自今年 4 月以來一直在梅奧診所研究醫院等地進行測試。Med-PaLM 2 是 PaLM 2 的變體,它在今年 5 月的 Google I/O 大會上宣布。PaLM 2 是支援 Google Bard 的語言模型。報導還提到,Google 相信 Med-PaLM 2 訓練於經過精心挑選的醫學專家展示,這使得它在醫療對話方面比如 Bard、Bing 和 ChatGPT 等泛化的聊天機器人更為出色。
精準度和功能
根據 Google 在五月份公開的研究(pdf),醫生在該研究中發現 Google 的 Med-PaLM 和 Med-PaLM 2 在提供答案時存在更多的不準確和無關緊要的訊息,然而在其他幾乎所有指標方面,如顯示推理依據、共識支援的答案或沒有錯誤理解的跡象,Med-PaLM 2 的表現幾乎和實際醫生一樣出色。
隱私和控制
報導還提到,測試 Med-PaLM 2 的客戶將能夠控制他們的資料,資料將進行加密,Google 將無法存取。據 Google 高級研究總監格雷格·科拉多(Greg Corrado)表示 Med-PaLM 2 仍處於早期階段。科拉多表示雖然他不希望它成為自己家人“醫療旅程”的一部分,但他認為 Med-PaLM 2「將 AI 在醫療領域中可以發揮作用的範圍擴充套件了 10 倍」。
評論與建議
AI 在醫療領域的應用
這項訊息再次引發了人們對於人工智慧在醫療領域中的應用的討論。人工智慧在醫療診斷和治療中具有巨大的潛力,可以提高效率和準確性,並為區域醫療資源較為匱乏的地區提供幫助。
提升醫療效能
然而醫療診斷和治療是一個高度專業和複雜的領域,任何錯誤或不準確的訊息都可能對患者的生命和健康造成重大損害。因此在使用人工智慧進行醫療診斷和治療時,我們必須始終保持謹慎和警惕。
倫理和隱私問題
同時隨著人工智慧在醫療中的應用越來越廣泛,我們還必須關注倫理和隱私問題。醫療資料是非常敏感和個人化的訊息,應該嚴格保護。我們必須確保使用者對他們的資料擁有充分的控制權利,並且人工智慧系統的設計和執行應該符合相應的隱私和倫理標準。
結論
Google 的醫療人工智慧聊天機器人 Med-PaLM 2 在醫院中的測試引起了廣泛關注。儘管存在精確度和隱私等問題,人工智慧在醫療領域的應用仍具有巨大潛力。然而在推動人工智慧在醫療中的應用時,我們必須保持謹慎和警惕,同時確保隱私和倫理等問題得到適當處理。
延伸閱讀
- Google 攜手 Anthropic 推出全新 AI 模型存取資料標準,革命性進展即將改變科技界!
- 震撼收購:Google 豪擲重金併購 Wiz,一週回顧
- Google 提議放寬 AI 政策中的版權與出口規則,引發爭議!
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- Google 升級 Colab!全新 AI 代理工具助你提升生產力!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- Google 大幅簡化個人資訊刪除流程,搜尋結果隱私守護新上線!
- 「Glance 推出 AI 驅動購物體驗,獲 Google 新一輪資金支援!」
- 「FAA 開始測試 Starlink 終端,馬斯克批評 Verizon 技術‘無法執行’!」
- Google 推出免費 AI 程式設計助手,使用約束超乎想像!