
新模型減少偏見並增強 AI 決策和知識組織的信任
簡介
加拿大滑鐵盧大學的研究人員開發了一種新的解釋性人工智慧(AI)模型,旨在減少偏見,增強機器學習生成的決策和知識組織的信任和準確性。傳統的機器學習模型往往產生有偏見的結果,偏袒人口眾多的群體,或者受到未知因素的影響,且需要耗費大量工作來從包含不同類別或主要來源的模式和子模式的實例中識別。醫療領域是一個嚴重受到有偏見的機器學習結果影響的領域。
問題背景
醫院工作人員和醫學專業人員依靠包含成千上萬條醫療記錄和複雜的計算機算法的資料集來做出關於病人護理的重要決策。使用機器學習對資料進行分類可以節省時間。然而具有罕見症狀模式的特定病人群體可能被忽視,標記錯誤的病人和異常情況可能會影響診斷結果。這種內在的偏見和模式紊亂導致錯誤診斷和特定病人群體的不公平醫療結果。
新模型的研究成果
在這項由滑鐵盧大學的系統設計工程學傑出教授 Andrew Wong 帶領的研究中,使用了大量的蛋白質結合資料,透過解纜從資料中取出複雜模式以將其與不受異常和錯誤標籤實例影響的特定潛在因素相聯動。這樣做是為了提高解釋性人工智慧(XAI)的可靠性和可信度。這項研究成果導致了新的 XAI 模型的開發,稱為模式發現和解纜(Pattern Discovery and Disentanglement,簡稱 PDD)。
研究人員的觀點和預測
滑鐵盧大學的研究團隊成員之一,主要研究人員周培元博士表示:"透過 PDD,我們的目標是尋找 AI 技術和人類理解之間的橋梁,以協助實現可靠的決策並從複雜的資料源中開展更深入的知識。"多倫多大學的自然語言處理專家、合著作者和合作夥伴之一李安妮教授表示 PDD 對臨床決策的貢獻具有巨大的價值。
案例研究和結果展示
PDD 模型已經在各種案例研究中展示了其能力,例如根據臨床記錄預測病人的醫療結果。PDD 系統還可以發現資料集中的新的和罕見模式。這使得研究人員和從業人員能夠檢測機器學習中的錯誤標籤或異常情況。結果顯示,醫療專業人員可以依靠嚴格的統計和可解釋的模式進行更可靠的診斷,並為不同階段的各種疾病提供更好的治療建議。
結語和展望
新的解釋性人工智慧模型 PDD 的研究成果為減少偏見並增強 AI 決策和知識組織的信任帶來了巨大價值。這將有助於改善醫療領域中的診斷和治療結果,為特定病人群體提供公平和準確的醫療服務。未來的研究和應用應該繼續探索和擴充套件 PDD 模型的應用,以在各種領域中實現更廣泛的知識組織和 AI 決策的信任和可靠性。