安卓機器能否笑出來?研究挑戰 AI 模型辨識幽默
背景
2023 年 7 月 26 日,康奈爾大學的湯姆·弗萊施曼(Tom Fleischman)發表了一項名為「安卓機器能否笑出來?從紐約客漫畫說明比賽看 AI 模型辨識幽默」的研究報告。這項研究挑戰了人工智慧模型和人類,分別進行了三個任務:將笑話與卡通畫配對、辨識獲勝的標題以及解釋獲勝標題為何有趣。研究結果顯示,在所有任務中,人類的表現明顯優於機器,儘管 AI 技術的進步(如 ChatGPT)正在縮小這一差距。
研究方法
研究團隊從《紐約客》雜誌的漫畫標題大賽中選取了 14 年的比賽資料,共計 700 多個標題。每個標題大賽包含:一幅沒有標題的卡通畫、本週的參賽標題、由《紐約客》編輯選出的三個入圍作品以及部分比賽的參與者對每個作品的品質評估。該研究分別對兩種 AI 模型(從影象中辨識和從描述中分析)進行了三個任務的測試。
結果與討論
研究結果顯示,無論是在配對卡通畫與標題的多選測試中,還是在比較人類和 AI 生成的解釋時,人類明顯優於機器。人類在多選測試中的準確率為 94%,而 AI 僅為 62%。在解釋標題為什麼有趣的比較中,人類的解釋被接受的機率大約是 AI 生成解釋的 2 倍。
雖然 AI 可能還不能「理解」幽默,但作者指出,它可以作為協作工具,供幽默作家用於腦力激蕩的創作靈感。此外這項研究還提醒人們,我們對於「理解」一詞的定義需要更多的思考。人類對於理解的能力是獨特的,是與人的情感和經驗緊密相連的。
技術與人類的差異
本研究突顯了人類和 AI 之間在辨識幽默方面的差異。AI 模型儘管能生成數以千計的笑話,但它們是否理解這些笑話為何有趣尚未得到確保的答案。研究中提到,對 AI 模型進行「理解」測試的方式是給它們建立測試,例如多選測試,並透過準確率來評估。然而是否透過這些測試能證實 AI 真正理解幽默仍然是個爭論的問題。雖然 AI 模型可能無法真正「理解」,因為理解是人類的事情,但無論 AI 是否真正理解,它們在這些任務上的表現仍然令人印象深刻。
未來的展望
研究團隊表示儘管當前的 AI 模型無法真正「理解」幽默,但這些模型在幽默辨識方面仍然取得了一些進展。未來的研究可以繼續深入探索 AI 模型在理解幽默方面的能力,並研發新的測試方法來評估其表現。同時幽默作家和 AI 研究人員可以進一步合作,利用 AI 作為創作工具,共同開發出更有趣和創新的笑話。
總結
這項研究顯示 AI 模型在辨識幽默方面的表現仍有待改進,並與人類的理解能力存在明顯的差距。儘管如此我們應該保持對 AI 技術的開放態度,並將其視為一種協作工具,有助於啟發人類的創造力和幽默感。人類對於幽默的理解是一種豐富而獨特的體驗,對於我們的人性和文化意義深遠。
延伸閱讀
- Google 推出新一代 AI 模型 LearnLM,助力教育業界革新
- NFT 平臺 Zora 提供了一種新的賺錢方式,適合 AI 模型製作者
- 史上最大的文字轉語音 AI 模型體現「新興能力」
- 研究發現:人類學家發現 AI 模型可以被訓練成欺騙者
- Google 首款搭載全新 AI 模型 Gemini 的智慧手機--Pixel 8 Pro
- Google 的 AI 聊天機器人 Bard 進行大幅升級,搭載 Google 的下一代 AI 模型 Gemini
- Google 布局生成式 AI 模型,但「Gemini」並非我們期待的模型
- 亞馬遜推出新晶片,用於訓練和執行 AI 模型
- Giskard 開源框架在將 AI 模型推向生產前進行評估
- 聚焦於 ChatGPT-like AI 模型開發的 Hugging Face 有兩人團隊