機器學習模型無法再現人類關於規定違反的判斷
研究發現機器學習模型在評估違反規定時,與人類判斷存在巨大差異
人工智慧(AI)和機器學習模型在決策方面越來越常用,例如評估社交媒體帖子是否違反有害內容政策。但是麻省理工學院的研究人員發現,這些模型通常無法再現人類關於規定違反的判斷。如果模型沒有得到正確的資料訓練,它們往往會做出不同,通常更苛刻的判斷。
正確的資料是由人類標記的,他們明確被要求評估物品是否違反特定規則。此類“規範資料”的數百萬例被用於訓練機器學習模型。但是通常用於訓練機器學習模型的資料是以描述性標籤標記的-這意味著人們被要求識別事實的特徵,例如照片中是否有油炸食品等等。如果使用“描述性資料”來訓練評估是否違反規定的模型(例如,判斷一頓餐是否違反禁止炸食品的學校政策),這些模型往往會過度預測違規情況,導致準確性下降,對現實世界產生嚴重影響。
資料的標注不同可能導致模型的偏見及準確性下降
研究小組發現,在描述性環境中,人們更有可能將某個物體標記為違反規定。研究人員訓練了兩個不同的模型,一個使用描述性資料訓練,另一個使用規範資料訓練,然後進行比較。他們發現,如果使用描述性資料來訓練模型,它將表現不如使用規範資料進行相同評估的模型。特別是,使用描述性資料訓練的模型更可能在假設有違規行為的情況下,錯誤地預測違規行為。
對資料透明度進行改進是緩解這個問題的一種策略。如果研究人員知道資料是如何收集的,那麼他們也知道這些資料應該如何使用。另一種可能的策略是將描述性訓練模型微調到一小部分規範資料,這是研究人員未來研究的方向之一。
研究結果表明:機器學習模型的應用需要仔細考量其資料訓練過程,並透明地呈現實驗結果,以緩解這種問題。
延伸閱讀
- 突破獨家訪談:Wayve 共同創辦人 Alex Kendall 談自動駕駛汽車和機器人的未來
- Rad AI 完成由 Khosla Ventures 領投的 5 千萬美元 B 輪融資
- 「Meta AI 對印度男性生成影象時偏好頭巾」
- Quora CEO Adam D’Angelo 分享人工智慧和聊天機器人平臺 Poe,並解釋為何 OpenAI 並非競爭對手
- 在 AI 領域的女性:Tara Chklovski 正在教導下一代的 AI 創新者
- 本週人工智慧大事記:生成式人工智慧與創作者補償的問題
- 蘋果 AI 計劃揭祕:從財報中學到的三件事
- 特斯拉 CEO 為人工智慧新創公司籌集 60 億美元,TikTok 是否在逃避蘋果的傭金?
- Allozymes 以加速酶學應用於資料和人工智慧,籌集 1500 萬美元
- 在 TC 的 Techstars 調查內部以及人工智慧如何加速殘障科技