Tetris 揭示人們對於不公平 AI 的應對方式
經過一項以 Tetris 為基礎的實驗,研究人員發現,經常獲得較少機會的玩家,不論是人工智慧還是人類進行資源分配都會導致他們認為對方較不受喜愛。這個發現顯示出,機器學習做出的分配決策可能會影響人與人之間的關係和互動。本研究的主要作者是康乃爾大學訊息科學副教授 Malte Jung,研究團隊的研究成果已於 2022 年 4 月 27 日發表在《人類行為與計算機》期刊上。從 Tetris 到機器學習
Tetris 是一個 40 年前的經典方塊堆疊遊戲,現在被許多研究人員用作獲取有關人類認知、社會行為和記憶的基礎洞察力的寶貴工具。Claure 開發了 Co-Tetris 的雙人版本,允許兩個玩家(每次一個)共同完成每個回合。分配人員(可以是人工智慧或人類)決定哪個玩家進行每次輪流操作。 研究人員將 Tetris 的實驗案例引申至機器學習,並發現分配決策的機器學習同樣會影響人與人之間的關係和互動。這種影響是研究人員稱之為“機器分配行為”,與“資源分配行為”相似。一個人對資源分配的決策將會導致觀察到的人體現的行為。公平對於表現不一定有幫助
研究團隊發現,公平的分配決策並不一定對於遊戲表現有幫助。研究人員對每次操作的分配進行控制實驗,使得某一人在 90%的機會獲得回合,另一人在 10%的機會下得到回合。分配次數相等的情況下,平均分數反而比歸屬不平均的情況下,表現較差。從實驗到現實世界
這份研究的作者希望這項工作可以引起更多有關人工智慧決策對人類的影響的研究,特別是在 AI 系統作出持續決策的情況下。萊因·基茨尼斯是這篇論文的共同作者之一,他是康奈爾大學博爾斯計算和訊息科學學院的訊息科學助理教授,他希望這項工作將引領更多關於 AI 決策對於人的影響的研究。 總之機器學習作出的分配決策,會對人與人之間的關係和互動產生影響。公平的分配決策不一定有助於遊戲表現,而分配決策體現了觀察到的人所體現的行為。如何平衡 AI 系統決策和人與人之間的關係,將是未來 AI 發展中亟待解決的問題。編輯建議
機器學習對於人類生活產生了深遠影響。然而隨著 AI 決策系統變得越來越自主,我們如何平衡較高的 AI 智慧和人與人之間的關係,將是未來 AI 發展中必須要解決的問題。這也需要從技術和倫理的角度進行探討,以確保 AI 決策對人的影響最小化。AI 公平性 (AI Fairness)-AI 公平性,俄羅斯方塊,遊戲化學習,機器學習,人工智慧.
延伸閱讀
- RPA 供應商如何在 AI 代理人世界保持競爭力
- 元 AI 測試:未能彰顯自身價值,但免費就是免費
- Google 推出新功能“口語練習”,利用人工智慧幫助使用者提高英文能力
- 科技巨頭 xAI 競爭開放人工智慧,吸金 60 億美元。推動社交網路 X 成為股東
- Xaira:AI 藥物發現新創公司以 10 億美元巨額啟動,宣稱已準備好開展藥物開發
- Rabbit 宣布推出一個迷人的小型 AI 裝置:R1
- Perplexity AI 可能價值高達 30 億美元,原因在於…
- 基於人工智慧時代,Anon 正在打造自動化認證層 - 技術新聞
- Snowflake 推出自家旗艦生成式人工智慧模型
- Parloa 完成 6600 萬美元融資,打造客服對話人工智慧平臺