網路議題

俄羅斯方塊揭示如何回應不公平的 AI

Tetris 揭示人們對於不公平 AI 的應對方式經過一項以 Tetris 為基礎的實驗,研究人員發現,經常獲得較少機會的玩家,不論是人工智慧還是人類進行資源分配都會導致他們認為對方較不受喜愛。這個發現顯示出,機器學習做出的分配決策可能會影響人與人之間的關係和互動。本研究的主要作者是康乃爾大學訊息科 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

俄羅斯方塊揭示如何回應不公平的 AI

Tetris 揭示人們對於不公平 AI 的應對方式

經過一項以 Tetris 為基礎的實驗,研究人員發現,經常獲得較少機會的玩家,不論是人工智慧還是人類進行資源分配都會導致他們認為對方較不受喜愛。這個發現顯示出,機器學習做出的分配決策可能會影響人與人之間的關係和互動。本研究的主要作者是康乃爾大學訊息科學副教授 Malte Jung,研究團隊的研究成果已於 2022 年 4 月 27 日發表在《人類行為與計算機》期刊上。

從 Tetris 到機器學習

Tetris 是一個 40 年前的經典方塊堆疊遊戲,現在被許多研究人員用作獲取有關人類認知、社會行為和記憶的基礎洞察力的寶貴工具。Claure 開發了 Co-Tetris 的雙人版本,允許兩個玩家(每次一個)共同完成每個回合。分配人員(可以是人工智慧或人類)決定哪個玩家進行每次輪流操作。 研究人員將 Tetris 的實驗案例引申至機器學習,並發現分配決策的機器學習同樣會影響人與人之間的關係和互動。這種影響是研究人員稱之為“機器分配行為”,與“資源分配行為”相似。一個人對資源分配的決策將會導致觀察到的人體現的行為。

公平對於表現不一定有幫助

研究團隊發現,公平的分配決策並不一定對於遊戲表現有幫助。研究人員對每次操作的分配進行控制實驗,使得某一人在 90%的機會獲得回合,另一人在 10%的機會下得到回合。分配次數相等的情況下,平均分數反而比歸屬不平均的情況下,表現較差。

從實驗到現實世界

這份研究的作者希望這項工作可以引起更多有關人工智慧決策對人類的影響的研究,特別是在 AI 系統作出持續決策的情況下。萊因·基茨尼斯是這篇論文的共同作者之一,他是康奈爾大學博爾斯計算和訊息科學學院的訊息科學助理教授,他希望這項工作將引領更多關於 AI 決策對於人的影響的研究。 總之機器學習作出的分配決策,會對人與人之間的關係和互動產生影響。公平的分配決策不一定有助於遊戲表現,而分配決策體現了觀察到的人所體現的行為。如何平衡 AI 系統決策和人與人之間的關係,將是未來 AI 發展中亟待解決的問題。

編輯建議

機器學習對於人類生活產生了深遠影響。然而隨著 AI 決策系統變得越來越自主,我們如何平衡較高的 AI 智慧和人與人之間的關係,將是未來 AI 發展中必須要解決的問題。這也需要從技術和倫理的角度進行探討,以確保 AI 決策對人的影響最小化。
AI 公平性 (AI Fairness)-AI 公平性,俄羅斯方塊,遊戲化學習,機器學習,人工智慧.

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。