Tetris 揭示人們對於不公平 AI 的應對方式
經過一項以 Tetris 為基礎的實驗,研究人員發現,經常獲得較少機會的玩家,不論是人工智慧還是人類進行資源分配都會導致他們認為對方較不受喜愛。這個發現顯示出,機器學習做出的分配決策可能會影響人與人之間的關係和互動。本研究的主要作者是康乃爾大學訊息科學副教授 Malte Jung,研究團隊的研究成果已於 2022 年 4 月 27 日發表在《人類行為與計算機》期刊上。從 Tetris 到機器學習
Tetris 是一個 40 年前的經典方塊堆疊遊戲,現在被許多研究人員用作獲取有關人類認知、社會行為和記憶的基礎洞察力的寶貴工具。Claure 開發了 Co-Tetris 的雙人版本,允許兩個玩家(每次一個)共同完成每個回合。分配人員(可以是人工智慧或人類)決定哪個玩家進行每次輪流操作。 研究人員將 Tetris 的實驗案例引申至機器學習,並發現分配決策的機器學習同樣會影響人與人之間的關係和互動。這種影響是研究人員稱之為“機器分配行為”,與“資源分配行為”相似。一個人對資源分配的決策將會導致觀察到的人體現的行為。公平對於表現不一定有幫助
研究團隊發現,公平的分配決策並不一定對於遊戲表現有幫助。研究人員對每次操作的分配進行控制實驗,使得某一人在 90%的機會獲得回合,另一人在 10%的機會下得到回合。分配次數相等的情況下,平均分數反而比歸屬不平均的情況下,表現較差。從實驗到現實世界
這份研究的作者希望這項工作可以引起更多有關人工智慧決策對人類的影響的研究,特別是在 AI 系統作出持續決策的情況下。萊因·基茨尼斯是這篇論文的共同作者之一,他是康奈爾大學博爾斯計算和訊息科學學院的訊息科學助理教授,他希望這項工作將引領更多關於 AI 決策對於人的影響的研究。 總之機器學習作出的分配決策,會對人與人之間的關係和互動產生影響。公平的分配決策不一定有助於遊戲表現,而分配決策體現了觀察到的人所體現的行為。如何平衡 AI 系統決策和人與人之間的關係,將是未來 AI 發展中亟待解決的問題。編輯建議
機器學習對於人類生活產生了深遠影響。然而隨著 AI 決策系統變得越來越自主,我們如何平衡較高的 AI 智慧和人與人之間的關係,將是未來 AI 發展中必須要解決的問題。這也需要從技術和倫理的角度進行探討,以確保 AI 決策對人的影響最小化。AI 公平性 (AI Fairness)-AI 公平性,俄羅斯方塊,遊戲化學習,機器學習,人工智慧.
延伸閱讀
- Web3 投資公司 Borderless Capital 收購 CTF Capital,引進人工智慧和量化專業技術
- 0G Labs 以驚人的 3,500 萬美元預種子輪啟動,致力於打造模組化人工智慧區塊鏈
- Cyera 將籌集最高 3 億美元,估值達到 15 億美元,AI 正是資料問題
- 人工智慧與資料基礎設施推動開源新創公司需求
- Profluent 利用人工智慧發現藥物,得到 Salesforce 研究支援,Jeff Dean 提供後盾
- 大型語言模型可幫助家庭機器人在無需人類幫助的情況下恢復錯誤
- 聽得見嗎?AI 音效技術對抗嘈雜音訊
- 為何無法評論人工智慧以及為何 TechCrunch 還是這樣做?
- 穩定 AI 執行長辭職,因為你無法用更集中的 AI 來擊敗中央集權的 AI
- 為什麼人工智慧在拼字上如此不靈光?