網路議題

人為錯誤進入機器學習的程式,「確保」有多確保?

將人的錯誤納入機器學習中:確實到什麼程度?背景研究人員正在開發一種方法,將最為人類特點之一的不確保性納入機器學習系統中。人為錯誤和不確保性是許多人工智慧系統所無法理解的概念,特別是在人提供反饋給機器學習模型的系統中。許多這些系統被設計成假設人總是確保且正確的,但現實世界中的決策往往包含偶爾的錯誤和不 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人為錯誤進入機器學習的程式,「確保」有多確保?

將人的錯誤納入機器學習中:確實到什麼程度?

背景

研究人員正在開發一種方法,將最為人類特點之一的不確保性納入機器學習系統中。人為錯誤和不確保性是許多人工智慧系統所無法理解的概念,特別是在人提供反饋給機器學習模型的系統中。許多這些系統被設計成假設人總是確保且正確的,但現實世界中的決策往往包含偶爾的錯誤和不確保性。

劍橋大學、艾倫·圖靈研究所、普林斯頓大學以及 Google DeepMind 的研究人員一直在嘗試填補人類行為與機器學習之間的鴻溝,以便更全面地考慮不確保性在人工智慧應用中的影響。這可以幫助降低風險,提高這些應用的信任度和可靠性,尤其是在安全至關重要的領域,如醫學診斷。

研究內容與結果

該團隊對一個眾所周知的影象分類資料集進行了改進,以便人們在為特定影象標記時能夠提供反饋並指示自己的不確保程度。研究人員發現,使用不確保標籤進行訓練可以提高系統處理不確保反饋的效能,但同時人類也會降低這些混合系統的整體效能。

研究人員將結果在《AAAI/ACM 人工智慧、倫理與社會問題大會(AIES 2023)》上發表。他們指出,針對人類不確保性進行機器學習建模是一項重要挑戰。研究人員表示他們的研究結果確保了將人類納入機器學習模型時面臨的幾個開放性挑戰,並釋放了資料集以支援進一步的研究、將不確保性納入機器學習系統。

哲學討論:不確保性與人工智慧的聯動

人們不確保是如何思考世界的,這是一種普遍存在的現象。然而當前許多人工智慧模型假設人總是確保且正確的,這與現實世界中的人類決策過程有所不同。不確保性在某些應用中可能帶來真實的安全風險,因此有必要將不確保性納入機器學習系統中。

研究人員對幾種機器學習基準資料集進行了實驗,結果顯示宕機器被人類取代時,效能迅速下降。這表明研究人員在將人類納入機器學習模型時面臨許多挑戰。然而雖然人們的不確保性可能會導致不準確性,但透過納入人類行為的考慮,我們可以提高這些“人在環環”系統的可靠性和信任度。

對未來的影響和建議

這項研究的結果有助於提高人工智慧系統的可靠性和安全性,特別是在醫學診斷等安全至關重要的應用中。納入人類的不確保性可以幫助降低風險,增加應用程式的可信度,並提高人與機器合作的信任。

然而當前的機器學習模型仍然面臨著挑戰,如何在模型中納入人類不確保性依然需要更多的研究。解決這些問題可能需要改進機器學習模型以更好地處理不確保性,並提供更準確的反饋機制來指導模型的修正。

在未來的研究中,我們需要更多的資料集、更多的實驗以及更多的累積知識,以便更好地理解和應對人類不確保性在機器學習中的影響。

Mistake-wordpress,機器學習,程式錯誤,人為錯誤,確保度
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。