
專家鼓勵積極使用 ChatGPT 並樹立新的倫理標準
2023 年 6 月 19 日
簡介
根據德國網際網路與社會亨堡特研究所(HIIG)進行的一項德爾菲研究,大型語言模型(LLM)(如 ChatGPT 所使用的)有著革命性的科學系統的潛力。該研究涵蓋了 72 位國際 AI 和數位化研究專家的廣泛調查。這些專家強調科學實踐的積極效果明顯超過了負面效果。同時他們強調科學和政治迫切需要積極打擊 LLM 可能帶來的虛假訊息,以維護科學研究的可信度。因此他們呼籲在使用生成式 AI 時加固監管、透明度和新的倫理標準。
專家觀點
根據專家們的觀點,LLM 對學術工作的文字領域產生的積極影響最為顯著。未來,大型語言模型將透過自動化寫作和發表論文中的各種任務,提高研究過程的效率。同樣,它們可以減輕科學家們面臨的日益增加的行政報告和研究計劃流程壓力。因此它們為批判性思維創造了額外的時間,並為新的創新開闢了途徑,因為研究人員可以重新專注於他們的研究內容並有效地將其傳達給更廣泛的受眾。
儘管承認不可否認的好處,該研究強調理解決可能產生的負面影響的重要性。根據受訪者的說法,LLM 具有產生與真實研究結果在視覺上無法區分的虛假科學主張的潛力。這種虛假訊息可能在公共辯論中散播並影響政策決策,對社會產生負面影響。同樣,大型語言模型的訓練資料中可能存在各種種族主義和歧視刻板印象。如果研究人員在進行充分取證之前將 LLM 生成的內容納入他們的日常工作中,這些錯誤可能滲入科學辯論。為了克服這些挑戰,研究人員必須獲得新的技能,包括批判性地對待 LLM 的結果。在大型語言模型的虛假訊息愈發增多的時代,研究人員需要利用他們的專業知識、權威和聲望推進客觀公共話語。他們主張制定更嚴格的法律法規,增加訓練資料的透明度,並在科學系統中使用生成式 AI 時培養負責任和道德的實踐。
研究負責人的評論
主持該調查的 Benedikt Fecher 博士評論說:“研究結果顯示了大型語言模型在科學研究中的轉型潛力。儘管它們帶來了巨大的好處,超過了風險,但 AI 和數位化領域的專家舉出的證據說明,解決與虛假訊息和科學信任流失相關的挑戰是多麼重要。如果我們以負責任的方式使用 LLM 並遵守倫理指南,我們就能最大化其正面影響並將潛在的傷害降到最低。”
結論
這項調查清楚地表明,大型語言模型對科學研究具有巨大的潛力,但同時也帶來了一些挑戰。為了充分發揮其積極影響,並減少潛在的負面影響,我們需要在使用 LLM 時建立更嚴格的法規和倫理標準。研究人員應該掌握新的技能,如批判性地對待 LLM 的結果,並運用他們的專業知識和聲望推動客觀的公共話語。政府和科學界需要加固監管,提高訓練資料的透明度,並培養負責任和道德的使用生成式 AI 的實踐。只有透過這些努力,我們才能充分利用 LLM 的潛力,同時確保科學研究的可信度。
延伸閱讀
- OpenAI 計劃將 Sora 影片生成器整合至 ChatGPT,開啟創意新視界!
- 「深入解析!ChatGPT 收費全攻略:你需要知道的一切」
- 「OpenAI 為付費 ChatGPT 使用者推出深度研究功能,探索智慧對話的新境界!」
- OpenAI 努力破解 ChatGPT 的約束,帶你進入無阻礙的對話世界!
- OpenAI 解除 ChatGPT 部分內容警告,背後原因大揭祕!
- ChatGPT 該不該被視為節能型 AI?最新研究揭示其能耗真相!
- 「無需登入,ChatGPT 網頁搜尋功能全新上線!」
- 「ChatGPT 產品負責人將在美國政府對抗 Google 的案件中作證!」
- 《徹底解析 ChatGPT:你必須知道的 AI 聊天機器人一切!》
- 「ChatGPT 全新功能上線!使用者可自定義特質如‘健談’與‘Z 世代’」