![AI 不能精確模擬人類對於規則違反的判斷 AI 不能精確模擬人類對於規則違反的判斷](/Upload/349635_202305154279_.webp)
機器學習模型無法再現人類關於規定違反的判斷
研究發現機器學習模型在評估違反規定時,與人類判斷存在巨大差異
人工智慧(AI)和機器學習模型在決策方面越來越常用,例如評估社交媒體帖子是否違反有害內容政策。但是麻省理工學院的研究人員發現,這些模型通常無法再現人類關於規定違反的判斷。如果模型沒有得到正確的資料訓練,它們往往會做出不同,通常更苛刻的判斷。
正確的資料是由人類標記的,他們明確被要求評估物品是否違反特定規則。此類“規範資料”的數百萬例被用於訓練機器學習模型。但是通常用於訓練機器學習模型的資料是以描述性標籤標記的-這意味著人們被要求識別事實的特徵,例如照片中是否有油炸食品等等。如果使用“描述性資料”來訓練評估是否違反規定的模型(例如,判斷一頓餐是否違反禁止炸食品的學校政策),這些模型往往會過度預測違規情況,導致準確性下降,對現實世界產生嚴重影響。
資料的標注不同可能導致模型的偏見及準確性下降
研究小組發現,在描述性環境中,人們更有可能將某個物體標記為違反規定。研究人員訓練了兩個不同的模型,一個使用描述性資料訓練,另一個使用規範資料訓練,然後進行比較。他們發現,如果使用描述性資料來訓練模型,它將表現不如使用規範資料進行相同評估的模型。特別是,使用描述性資料訓練的模型更可能在假設有違規行為的情況下,錯誤地預測違規行為。
對資料透明度進行改進是緩解這個問題的一種策略。如果研究人員知道資料是如何收集的,那麼他們也知道這些資料應該如何使用。另一種可能的策略是將描述性訓練模型微調到一小部分規範資料,這是研究人員未來研究的方向之一。
研究結果表明:機器學習模型的應用需要仔細考量其資料訓練過程,並透明地呈現實驗結果,以緩解這種問題。
延伸閱讀
- 蘋果報導:打算讓 AI 登陸 Vision Pro
- ServiceNow 利用平臺上的資料,推出生成式 AI 解決方案
- 印度最大的人工智慧新創公司:基於籌資金額排名
- 雲端與人工智慧驅動傳統軟體公司創下歷史新高估值
- 人工智慧領域的女性領袖:Sarah Bitamazire 協助企業實施負責任的人工智慧
- 麻省理工學院機器人先驅 Rodney Brooks 認為人們對生成式人工智慧大大高估
- 小心微笑的機器人和有生命的皮膚 🤖👀
- Agility 的仿人機器人即將處理你的 Spanx
- 名師 Andrew Ng 計劃為下一個 AI 基金籌集 1.2 億美元
- Character.AI 現已允許使用者透過語音呼叫與 AI 頭像對話