人工智慧撰寫的文章難以被鑑別
引言
最新的一項研究指出,即便是語言專家,也很難區分出由人工智慧(AI)還是人類所創作的文章。這項研究由美國密西西比大學應用語言學助理教授 J. Elliott Casal 和南佛羅裏達大學的學者 Matthew Kessler 合作完成。研究成果於《應用語言學研究方法》期刊上發表。研究發現,全球頂尖語言學期刊的專家們在區分 AI 生成和人類生成的摘要時,只有不到 39%的準確率。研究方法
研究團隊要求 72 位語言學專家審閱多種研究摘要,並判斷它們是由 AI 還是人類撰寫的。每位專家需要檢視四份寫作範本,但沒有人能夠準確地識別出全部四份寫作範本的真正作者,而有 13%的專家全都認錯了。這項研究的結論是,除非有尚未開發的軟體的幫助,否則教授們無法區分學生自己創作的文章和由 AI 語言模型(ChatGPT)生成的文章。研究結果與討論
儘管專家們試圖透過辨識某些語言和風格特徵來判斷研究範本的作者,但他們的大部分嘗試都未能成功,整體正確識別率僅有 38.9%。Kessler 表示: "更有趣的是,當我們問他們為什麼認為某段文章是由 AI 或人類所撰寫時,他們給出了非常合乎邏輯的原因,但這些原因一次又一次地不準確或不一致。" 根據這些研究結果,Kessler 和 Casal 得出結論,ChatGPT 能夠像大多數人類一樣撰寫短篇幅的文章,有些情況下甚至更好,因為 AI 通常不會犯語法錯誤。人類作者在長篇文章中則更具優勢。Kessler 指出: "對於長篇文章,AI 被稱為出現幻覺並編撰內容,這使得我們更容易判斷其由 AI 生成。"倫理與指導方針
Kessler 希望這項研究能引起更廣泛的討論,以建立有關 AI 在研究和教育中使用的必要倫理和指導方針。無論是在學術領域還是在其他範疇中,AI 技術的進步都帶來了許多新的挑戰。對於人工智慧生成的文章,我們應該謹慎評估其真實性和可靠性,同時也需要確立使用 AI 技術的倫理標準與準則。結論
這項研究的結果顯示,即便是語言專家也很難區分出由 AI 還是人類撰寫的文章。然而在長篇文章的撰寫上,AI 通常會出現幻覺和篡改內容的情況,這使得我們更容易判斷出其由 AI 生成。這項研究的發現引發了人們對於 AI 在研究和教育中使用的倫理和指導方針的討論。在利用 AI 技術進行寫作時,我們應謹慎評估文章的真實性和可靠性,同時也需要建立相應的道德準則和指導方針。AI 技術、人工智慧、機器學習-人工智慧,自然語言處理,機器學習,深度學習,文字生成
延伸閱讀
- AI 蓬勃發展,馬斯克對抗機械革命
- OpenAI 成立團隊控制「超智慧」AI,卻任憑其枯萎——訊息來源指出
- 開放 AI 與 Reddit 資料簽署合約,訓練人工智慧
- 智慧錢包 Kudos 獲得 1000 萬美元投資,研發 AI 功能挑選最佳信用卡
- 索尼音樂警告科技公司避免未經授權使用其內容訓練人工智慧
- Strava 啟用人工智慧防篡改排行榜,推出「家庭」計畫、深色模式等
- 參議院研究建議:每年至少撥款 320 億美元用於人工智慧計劃
- Google I/O 盛會 AI 領域的重大訊息
- Google 掃描通話的人工智慧或增加預設審查,隱私專家發出警告
- 柏林科技企業 trawa 籌得 1 千萬歐元,運用人工智慧協助中小企業更輕鬆購買可再生能源