《使命召喚》將使用人工智慧監控語音聊天
背景
《使命召喚》等第一人稱射擊遊戲因其語音聊天室的毒性一度臭名昭著。調查將該系列的粉絲群體列為所有遊戲中最負面的一類;兩名玩家之間的紛爭曾導致召喚出一支特種武裝警察小組。多年來,Activision 一直在努力對這種行為進行整治,解決方案之一可能涉及人工智慧技術的應用。Activision 與名為 Modulate 的公司合作,將“遊戲內語音聊天監管”引入其遊戲產品中。這個新的監管系統使用一種名為 ToxMod 的人工智慧技術,實時檢測並辨識仇恨講話、歧視行為和騷擾行為。ToxMod 的首個測試在北美地區於今天展開,當前正在《使命召喚:現代戰爭 II》和《使命召喚:戰區》中啟用。全球範圍內(不包括亞洲,官方新聞稿中有明確說明)的正式發布將於 11 月 10 日隨著今年新版本的《使命召喚:現代戰爭 III》一同展開。
技術細節
Modulate 的新聞稿沒有提供太多有關 ToxMod 詳細工作原理的細節。其網站指出這項工具“對語音聊天進行分流,以標記不良行為,分析每次對話的細微區別以確保其有毒程度,還能幫助監管人員快速回應每一個事件,提供相關準確的背景訊息。”該公司的執行長在最近的一次採訪中表示該工具旨在超越僅僅傳輸對話內容的功能。它還考慮到玩家的情緒和聲音等因素,以區分有害言論和玩笑話語。需要注意的是,至少當前該工具不會根據其資料對玩家採取行動,而僅僅會向 Activision 的監管人員提交報告。人的參與很可能仍然是一個重要的防護措施,因為研究表明,語音識別系統在對不同種族身份和口音的使用者做出回應時可能會存在偏見。
評論和建議
《使命召喚》系列是全球最炙手可熱的遊戲之一,但與此同時它也面臨著不可忽視的問題,即玩家在語音聊天室中體現的負面行為。Activision 採取與 Modulate 合作,將人工智慧技術應用於監管語音聊天,為改善遊戲環境做出努力。然而儘管這個新的監管系統可以標記不良行為,但它尚未能夠真正採取果斷的措施。這引出了一個值得思考的問題:監管技術是否可以徹底解決語音聊天的負面問題?
語音聊天的負面行為問題不僅出現在《使命召喚》遊戲中,在其他遊戲和線上平臺上也十分普遍。使用人工智慧技術來監管語音聊天是一個理論上有吸引力的解決方案,但它是否能夠真正解決問題仍然存在著不確保性。人工智慧系統雖然可以識別不當言論,但對於玩笑話語和玩家的情感內容等細微區別可能無法很好地辨識。此外人工智慧系統也可能出現偏見,引發更多的爭議和不公平。
然而無論監管技術的成效如何,人的參與始終是不可或缺的。人可以更好地理解語境和情感,並作出公正的判斷。因此 Activision 應該確保其監管流程中有足夠的人力資源,並加固對監管人員的培訓,以確保他們能夠有效辨識和應對遊戲中的不當行為。同時玩家們也應該自覺遵守遊戲的行為守則,並尊重其他玩家的權益。
總而言之,監管語音聊天是一個複雜而具爭議性的問題,要解決這個問題需要綜合運用人力和技術手段。當前的監管技術是一個開始,但我們不能僅僅依賴技術,忽視了人的智慧和判斷力。只有透過技術和人的共同努力,我們才能創造更友好、尊重和包容的遊戲環境。
延伸閱讀
- Fairgen「提振」調查結果,利用合成資料和人工智慧生成的回應
- 用 Retell AI 讓公司打造「語音代理人」來應答電話
- OpenAI 揭開 AI 祕密指令的面紗
- AI 助您創辦者更快、更輕鬆地籌集資金嗎?
- 盧西德機器人獲得 900 萬美元用於無人機清潔任何地方
- 以色列新創公司 Panax 籌集了 1,000 萬美元 A 輪融資,用於其基於人工智慧的現金流管理平臺
- Reddit 測試使用基於 LLM 的人工智慧進行自動整站法語翻譯
- 三星醫聲將以 9270 萬美元收購法國人工智慧超聲波新創公司 Sonio
- 網際網路共同創始人 Robert Kahn 早在幾十年前就已經做到了加密、人工智慧和網際網路嗎?
- 人聲 vs AI:Audible 推出 AI 旁白有機會取代人類旁白嗎?