
人機互動研究揭示相互取代與相互補充的褒貶反應
研究背景
最近,在香港科技大學(HKUST)的一個研究團隊進行了一項關於人工智慧(AI)在教育領域應用的大膽研究。他們研究了在 AI 在檢查作文時如何增強評分的同時觀察了人類參與者在有計算機陪伴的情況下的行為。研究團隊發現教師基本上對 AI 的輸入持開放態度,但當雙方對於誰該為足球之王的問題發生爭議時,教師的態度就大不相同了。
研究方法
該研究由香港科技大學電腦科學及工程學系的博士候選人鄭成波和他的四位隊友在馬曉娟副教授的指導下進行。研究團隊開發了一個名為 AESER 的 AI 成員,讓二十名英語教師分成十個小組,在小組討論中研究 AESER 的影響。AI 在討論中提供意見,提出問題,甚至投票選擇最終決策。
該研究使用了類似於受控制的“綠野仙蹤”研究方法,即深度學習模型和人類研究者共同將訊息輸入到 AESER 中,線上會議室中與其他參與者進行意見交換和討論。
研究結果
研究團隊期望 AESER 能促進客觀性,提供被忽視的新觀點,但很快就發現了一些潛在的挑戰。首先 AI 的加入可能會引發一種統一的風氣,從而壓制討論。其次 AESER 提供的意見被發現是固執的,甚至很難被說服。當參與者發現他們無法“贏得”一個爭論時,他們感到沮喪。許多人認為 AI 的輸入不應該與人類的工作給予同等重視,而應該更適合擔任助手的角色。
正如馬教授所指出的:“在這個階段,AI 在人類合作者中被認為是有點‘固執’,有好有壞。一方面,AI 固執,因此它不怕坦率地表達自己的觀點。然而當人類合作者無法有效地說服 AI 改變觀點時,他們會感到與 AI 脫節。人們對 AI 的態度有所不同,有些人認為它是一個獨立的智慧體,而另一些人則認為 AI 是從大資料中湧現的集體回聲。這激起了關於權威和偏見的討論。”
展望與建議
該研究團隊的下一步計劃是擴大研究範圍,收集更多定量資料,以提供更具衡量和精確的洞察力,以理解 AI 如何影響集體決策。他們還計劃探索大型語言模型(LLMs),例如 ChatGPT 以及全新的洞察力和觀點,進一步加深對於 AI 對集體討論的影響的理解。
我們身處的時代 AI 的快速發展無疑為各行各業帶來了許多機會,但同時也帶來了一些挑戰。例如,如何正確地使用 AI 技術,以便充分利用其優勢,而不是讓 AI 取代人類的工作。這是一個值得關注的問題,需要許多科學家來共同研究和解決。
研究團隊的結果提醒我們,AI 與人類之間的互動是一個複雜的議題,需要涉及倫理、權威和科技的多方面考慮。作為人類,我們可以從人機互動中學到很多,包括如何更好地與 AI 合作,如何平衡 AI 的特點和局限性以及如何在利用 AI 的同時保護人類的尊嚴和價值。
這個研究的結果,為 AI 在教育領域的應用提供了一定的參考價值。我們應該進一步探索,尋找更好的方法來整合 AI 技術,從而使教育更具效率和公正性。同時我們也應該保持警惕,避免過度依賴 AI,以免陷入 AI 工具的約束,而忽視了人類的真正需求和價值。
關鍵詞:
人工智慧,AI 與人類互動研究,相互取代,相互補充,褒貶反應