
將人的錯誤納入機器學習中:確實到什麼程度?
背景
研究人員正在開發一種方法,將最為人類特點之一的不確保性納入機器學習系統中。人為錯誤和不確保性是許多人工智慧系統所無法理解的概念,特別是在人提供反饋給機器學習模型的系統中。許多這些系統被設計成假設人總是確保且正確的,但現實世界中的決策往往包含偶爾的錯誤和不確保性。
劍橋大學、艾倫·圖靈研究所、普林斯頓大學以及 Google DeepMind 的研究人員一直在嘗試填補人類行為與機器學習之間的鴻溝,以便更全面地考慮不確保性在人工智慧應用中的影響。這可以幫助降低風險,提高這些應用的信任度和可靠性,尤其是在安全至關重要的領域,如醫學診斷。
研究內容與結果
該團隊對一個眾所周知的影象分類資料集進行了改進,以便人們在為特定影象標記時能夠提供反饋並指示自己的不確保程度。研究人員發現,使用不確保標籤進行訓練可以提高系統處理不確保反饋的效能,但同時人類也會降低這些混合系統的整體效能。
研究人員將結果在《AAAI/ACM 人工智慧、倫理與社會問題大會(AIES 2023)》上發表。他們指出,針對人類不確保性進行機器學習建模是一項重要挑戰。研究人員表示他們的研究結果確保了將人類納入機器學習模型時面臨的幾個開放性挑戰,並釋放了資料集以支援進一步的研究、將不確保性納入機器學習系統。
哲學討論:不確保性與人工智慧的聯動
人們不確保是如何思考世界的,這是一種普遍存在的現象。然而當前許多人工智慧模型假設人總是確保且正確的,這與現實世界中的人類決策過程有所不同。不確保性在某些應用中可能帶來真實的安全風險,因此有必要將不確保性納入機器學習系統中。
研究人員對幾種機器學習基準資料集進行了實驗,結果顯示宕機器被人類取代時,效能迅速下降。這表明研究人員在將人類納入機器學習模型時面臨許多挑戰。然而雖然人們的不確保性可能會導致不準確性,但透過納入人類行為的考慮,我們可以提高這些“人在環環”系統的可靠性和信任度。
對未來的影響和建議
這項研究的結果有助於提高人工智慧系統的可靠性和安全性,特別是在醫學診斷等安全至關重要的應用中。納入人類的不確保性可以幫助降低風險,增加應用程式的可信度,並提高人與機器合作的信任。
然而當前的機器學習模型仍然面臨著挑戰,如何在模型中納入人類不確保性依然需要更多的研究。解決這些問題可能需要改進機器學習模型以更好地處理不確保性,並提供更準確的反饋機制來指導模型的修正。
在未來的研究中,我們需要更多的資料集、更多的實驗以及更多的累積知識,以便更好地理解和應對人類不確保性在機器學習中的影響。
延伸閱讀
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 全方位理解 Anthropic 的 AI:揭開 Claude 的神祕面紗!
- 探索 Microsoft Copilot:你必須知道的 AI 技術全解析!
- 「MLCommons 與 Hugging Face 聯手推出龐大語音資料集,助力 AI 研究新境界!」
- 深度探索聲稱其推理模型在特定基準測試中超越 OpenAI 的 o1!
- 《徹底解析 ChatGPT:你必須知道的 AI 聊天機器人一切!》
- OpenAI AI 推理模型竟然會「用中文思考」,背後原因成謎!
- 探索 ChatGPT:你所需理解的一切關於這款 AI 聊天機器人!
- Nvidia 攜手 Apple Vision Pro,助推人型機器人學習新境界!
- 「DeepSeek 最新 AI 模型為何自認是 ChatGPT?揭祕背後的技術奧妙!」