網路議題

Glass Health 正在開發一款能夠提供醫學診斷建議的人工智慧

Glass Health:為醫療診斷提供人工智慧的新創公司背景隨著金融和航空等領域的創新蓬勃發展,加州舊金山大學的一名醫學生 Dereck Paul 開始感到醫療軟體的創新落後於其他領域。他認為當醫生能夠配備具有尖端技術的軟體時,患者能夠得到最佳的服務。他夢想著創辦一家公司,將患者和醫生的需求置於醫 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

Glass Health 正在開發一款能夠提供醫學診斷建議的人工智慧

Glass Health:為醫療診斷提供人工智慧的新創公司

背景

隨著金融和航空等領域的創新蓬勃發展,加州舊金山大學的一名醫學生 Dereck Paul 開始感到醫療軟體的創新落後於其他領域。他認為當醫生能夠配備具有尖端技術的軟體時,患者能夠得到最佳的服務。他夢想著創辦一家公司,將患者和醫生的需求置於醫院管理者或保險公司之上。因此 Paul 與他的朋友 Graham Ramsey 合作成立了 Glass Health 公司。

Glass Health 提供一個筆記本,醫生可以使用它來儲存、組織和分享他們在整個職業生涯中診斷和治療疾病的方法。Paul 將其描述為醫學學習和實踐的“個人知識管理系統”。該公司在社交媒體上獲得了早期的關注,特別是在診所、護士和醫生培訓生中。

但今年初,Paul 和 Ramsey 決定將公司轉向生成式人工智慧(AI)領域。Glass Health 現在提供一個由大型語言模型(LLM)驅動的 AI 工具,類似於 OpenAI 的 ChatGPT,用於生成基於證據的醫療診斷和治療選項,以供醫生參考。

生成式 AI 在醫療領域面臨的挑戰

理論上,Glass Health 的工具似乎非常有用。但是即使是尖端的 LLM 在提供健康建議方面也表現出很大的不準確性。不少 AI 新創公司在這方面遭遇了困境。因此人們對 Glass Health 的 AI 表示懷疑,並認為它的診斷不一定可靠。

除此之外,生成式 AI 系統可能存在偏見的問題。醫學 LLM 通常是基於醫療記錄進行訓練的,而這些記錄只顯示醫生和護士注意到的問題(只限於那些有能力看醫生的患者),這可能會造成盲點。此外醫生在記錄 LLM 訓練資料時可能會不知不覺地將自己的種族、性別或社經偏見融入其中導致模型傾向於某些人群而不是其他人群。

Glass Health 的反駁與控制

Paul 表示 Glass Health 的 AI 與由其學術醫生團隊建立和同行評審的臨床指南相結合。他們要求臨床使用者密切監督 AI 的輸出,將其視為一個可以提供有用建議和選項的助手,但永遠不能取代臨床醫生的判斷。

Paul 多次強調 Glass Health 的 AI 在提供潛在診斷方面,不應該被解讀為明確或指令性的答案。他提出這樣做的原因是,如果是這樣,Glass Health 將受到更嚴格的法律審查,甚至可能受到美國食品和藥物管理局(FDA)的監管。

Glass Health 的方法包括收集使用者資料以改善其基礎 LLMs 的效能。Paul 表示使用者可以隨時要求刪除所有儲存的資料。

Paul 還表示 Glass Health 與 LLMs 應用程式(如 ChatGPT)不同,它不僅僅依賴於預訓練的模型來生成輸出。Glass Health 對其 AI 的輸出訊息和指南採取嚴格的控制,力求解決偏見問題並使建議與實現健康公平的目標保持一致。

展望與結論

儘管 Glass Health 在生成式 AI 在醫療領域的挑戰上仍然面臨不少質疑,但該平臺在早期使用者方面並不缺乏採用者。

Glass Health 的計劃包括根據臨床指南對平臺進行不斷的建立、審閱和更新,進一步提升 AI 的效能。

儘管如此我們還需要進一步研究生成式 AI 在診斷中的表現。Glass Health 面臨的挑戰不僅僅是技術性的,還有法律監管和社會接受度等方面的問題。

無論如何,在提供 AI 醫療支援的過程中,我們應該始終認識到人工智慧只是醫生的一種支援工具,而不能取代醫生的臨床判斷。在匯入這些新技術時,我們應該保持謹慎並保證其安全性和效益。

Technology--人工智慧-醫學診斷-GlassHealth-健康科技-醫療技術-AI
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。