專家鼓勵積極使用 ChatGPT 並樹立新的倫理標準
2023 年 6 月 19 日
簡介
根據德國網際網路與社會亨堡特研究所(HIIG)進行的一項德爾菲研究,大型語言模型(LLM)(如 ChatGPT 所使用的)有著革命性的科學系統的潛力。該研究涵蓋了 72 位國際 AI 和數位化研究專家的廣泛調查。這些專家強調科學實踐的積極效果明顯超過了負面效果。同時他們強調科學和政治迫切需要積極打擊 LLM 可能帶來的虛假訊息,以維護科學研究的可信度。因此他們呼籲在使用生成式 AI 時加固監管、透明度和新的倫理標準。
專家觀點
根據專家們的觀點,LLM 對學術工作的文字領域產生的積極影響最為顯著。未來,大型語言模型將透過自動化寫作和發表論文中的各種任務,提高研究過程的效率。同樣,它們可以減輕科學家們面臨的日益增加的行政報告和研究計劃流程壓力。因此它們為批判性思維創造了額外的時間,並為新的創新開闢了途徑,因為研究人員可以重新專注於他們的研究內容並有效地將其傳達給更廣泛的受眾。
儘管承認不可否認的好處,該研究強調理解決可能產生的負面影響的重要性。根據受訪者的說法,LLM 具有產生與真實研究結果在視覺上無法區分的虛假科學主張的潛力。這種虛假訊息可能在公共辯論中散播並影響政策決策,對社會產生負面影響。同樣,大型語言模型的訓練資料中可能存在各種種族主義和歧視刻板印象。如果研究人員在進行充分取證之前將 LLM 生成的內容納入他們的日常工作中,這些錯誤可能滲入科學辯論。為了克服這些挑戰,研究人員必須獲得新的技能,包括批判性地對待 LLM 的結果。在大型語言模型的虛假訊息愈發增多的時代,研究人員需要利用他們的專業知識、權威和聲望推進客觀公共話語。他們主張制定更嚴格的法律法規,增加訓練資料的透明度,並在科學系統中使用生成式 AI 時培養負責任和道德的實踐。
研究負責人的評論
主持該調查的 Benedikt Fecher 博士評論說:“研究結果顯示了大型語言模型在科學研究中的轉型潛力。儘管它們帶來了巨大的好處,超過了風險,但 AI 和數位化領域的專家舉出的證據說明,解決與虛假訊息和科學信任流失相關的挑戰是多麼重要。如果我們以負責任的方式使用 LLM 並遵守倫理指南,我們就能最大化其正面影響並將潛在的傷害降到最低。”
結論
這項調查清楚地表明,大型語言模型對科學研究具有巨大的潛力,但同時也帶來了一些挑戰。為了充分發揮其積極影響,並減少潛在的負面影響,我們需要在使用 LLM 時建立更嚴格的法規和倫理標準。研究人員應該掌握新的技能,如批判性地對待 LLM 的結果,並運用他們的專業知識和聲望推動客觀的公共話語。政府和科學界需要加固監管,提高訓練資料的透明度,並培養負責任和道德的使用生成式 AI 的實踐。只有透過這些努力,我們才能充分利用 LLM 的潛力,同時確保科學研究的可信度。
延伸閱讀
- Anthropic 的 Claude 在 iOS 平臺上的推出獲得微弱反韇,與 ChatGPT 的首次亮相相比
- 開放 AI (OpenAI)的 ChatGPT 新聞發布:我們當前所知道的事情
- ChatGPT 在歐盟再次遭遇隱私投訴,「幻覺」問題再起風波
- 無線耳機升級帶來 ChatGPT 貼心助手 - Nothing 最新耳機震撼登場
- ChatGPT 不再需要帳戶 - 但有一個小陷阱
- AI 動力對話機器人 ChatGPT:一切你需要知道的
- 協變科技致力於打造 ChatGPT 機器人
- Glean 欲在企業市場擊敗 ChatGPT 的遊戲
- 你比 ChatGPT 更黑嗎?來測測看!
- Match Group 宣布與 OpenAI 達成交易,宣告稿由 ChatGPT 撰寫