
Tetris 揭示人們對於不公平 AI 的應對方式
經過一項以 Tetris 為基礎的實驗,研究人員發現,經常獲得較少機會的玩家,不論是人工智慧還是人類進行資源分配都會導致他們認為對方較不受喜愛。這個發現顯示出,機器學習做出的分配決策可能會影響人與人之間的關係和互動。本研究的主要作者是康乃爾大學訊息科學副教授 Malte Jung,研究團隊的研究成果已於 2022 年 4 月 27 日發表在《人類行為與計算機》期刊上。
從 Tetris 到機器學習
Tetris 是一個 40 年前的經典方塊堆疊遊戲,現在被許多研究人員用作獲取有關人類認知、社會行為和記憶的基礎洞察力的寶貴工具。Claure 開發了 Co-Tetris 的雙人版本,允許兩個玩家(每次一個)共同完成每個回合。分配人員(可以是人工智慧或人類)決定哪個玩家進行每次輪流操作。
研究人員將 Tetris 的實驗案例引申至機器學習,並發現分配決策的機器學習同樣會影響人與人之間的關係和互動。這種影響是研究人員稱之為“機器分配行為”,與“資源分配行為”相似。一個人對資源分配的決策將會導致觀察到的人體現的行為。
公平對於表現不一定有幫助
研究團隊發現,公平的分配決策並不一定對於遊戲表現有幫助。研究人員對每次操作的分配進行控制實驗,使得某一人在 90%的機會獲得回合,另一人在 10%的機會下得到回合。分配次數相等的情況下,平均分數反而比歸屬不平均的情況下,表現較差。
從實驗到現實世界
這份研究的作者希望這項工作可以引起更多有關人工智慧決策對人類的影響的研究,特別是在 AI 系統作出持續決策的情況下。萊因·基茨尼斯是這篇論文的共同作者之一,他是康奈爾大學博爾斯計算和訊息科學學院的訊息科學助理教授,他希望這項工作將引領更多關於 AI 決策對於人的影響的研究。
總之機器學習作出的分配決策,會對人與人之間的關係和互動產生影響。公平的分配決策不一定有助於遊戲表現,而分配決策體現了觀察到的人所體現的行為。如何平衡 AI 系統決策和人與人之間的關係,將是未來 AI 發展中亟待解決的問題。
編輯建議
機器學習對於人類生活產生了深遠影響。然而隨著 AI 決策系統變得越來越自主,我們如何平衡較高的 AI 智慧和人與人之間的關係,將是未來 AI 發展中必須要解決的問題。這也需要從技術和倫理的角度進行探討,以確保 AI 決策對人的影響最小化。
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!