網路議題

AI 不能精確模擬人類對於規則違反的判斷

機器學習模型無法再現人類關於規定違反的判斷研究發現機器學習模型在評估違反規定時,與人類判斷存在巨大差異人工智慧(AI)和機器學習模型在決策方面越來越常用,例如評估社交媒體帖子是否違反有害內容政策。但是麻省理工學院的研究人員發現,這些模型通常無法再現人類關於規定違反的判斷。如果模型沒有得到正確的資料訓 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 不能精確模擬人類對於規則違反的判斷

機器學習模型無法再現人類關於規定違反的判斷

研究發現機器學習模型在評估違反規定時,與人類判斷存在巨大差異

人工智慧(AI)和機器學習模型在決策方面越來越常用,例如評估社交媒體帖子是否違反有害內容政策。但是麻省理工學院的研究人員發現,這些模型通常無法再現人類關於規定違反的判斷。如果模型沒有得到正確的資料訓練,它們往往會做出不同,通常更苛刻的判斷

正確的資料是由人類標記的,他們明確被要求評估物品是否違反特定規則。此類“規範資料”的數百萬例被用於訓練機器學習模型。但是通常用於訓練機器學習模型的資料是以描述性標籤標記的-這意味著人們被要求識別事實的特徵,例如照片中是否有油炸食品等等。如果使用“描述性資料”來訓練評估是否違反規定的模型(例如,判斷一頓餐是否違反禁止炸食品的學校政策),這些模型往往會過度預測違規情況,導致準確性下降,對現實世界產生嚴重影響。

資料的標注不同可能導致模型的偏見及準確性下降

研究小組發現,在描述性環境中,人們更有可能將某個物體標記為違反規定。研究人員訓練了兩個不同的模型,一個使用描述性資料訓練,另一個使用規範資料訓練,然後進行比較。他們發現,如果使用描述性資料來訓練模型,它將表現不如使用規範資料進行相同評估的模型。特別是,使用描述性資料訓練的模型更可能在假設有違規行為的情況下,錯誤地預測違規行為。

對資料透明度進行改進是緩解這個問題的一種策略。如果研究人員知道資料是如何收集的,那麼他們也知道這些資料應該如何使用。另一種可能的策略是將描述性訓練模型微調到一小部分規範資料,這是研究人員未來研究的方向之一。

研究結果表明:機器學習模型的應用需要仔細考量其資料訓練過程,並透明地呈現實驗結果,以緩解這種問題。

Unsplash gallery keyreplace: Artificial Intelligence (AI)-人工智慧,模擬,判斷,規則違反

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。