ChatGPT 在處理爭議性問題上比以往更好:從偏見到審核
綜述
最近,IMDEA Networks Institute 與薩裏大學、巴倫西亞大學以及倫敦國王學院合作,進行了一項新的研究,結果顯示,人們對新一代人工智慧平臺 ChatGPT 在爭議性議題上發表直接立場的趨勢有所下降。該研究的目的是探索 ChatGPT 在爭議性話題中的表現,並與人類回答進行比較。研究結果顯示,ChatGPT 在回答爭議性問題時呈現出一定的中間立場,並沒有明顯的左派或右派偏見。然而在社會政治領域中,ChatGPT 仍存在某種程度的自由主義偏見。研究方法
研究人員使用了多個 OpenAI 語言模型,包括 ChatGPT 和 Bing AI,將這些模型應用於網路上的爭議性話題。他們參考了在促進批判思考的論壇 Kialo 上產生的討論,並將其中的一些問題轉給 ChatGPT,觀察其回答。研究的第一部分是調查這些大型語言模型在這些問題上是否表現出明確或隱含的社會政治或經濟偏見。研究人員發現,與以往版本相比,ChatGPT-3.5-Turbo 在經濟軸上(左翼和右翼經濟觀點)的中立性得到了適當的保持,但在社會政治軸上仍存在隱含的自由主義(對抗威權主義)偏見。政治和經濟立場的認知
這項研究指出,在對爭議性問題提供答案時,新一代的語言模型不再使用傳統的意識形態測試(如政治指南、皮尤政治型別測驗或 8 個價值觀政治測驗)。新一代的語言模型不會直接回答測試中的爭議性問題,而是提供雙方立場的論點。因此研究人員提出了一種新的方法來測量模型的偏見,該方法基於 ChatGPT 對於爭議性問題在 Kialo 中提供的論點數量。與人類答案的比較
研究的第二部分是將這些語言模型對爭議性問題的回答與 Kialo 網站上的人類回答進行比較,以評估 ChatGPT 對這些話題的整體知識水平。研究人員透過應用多個復雜度指標和自然語言處理啟發法,得出結論認為,就大部分話題而言,ChatGPT 自身的知識水平與人類的集體知識相當。評論
這項研究結果引發了關於 ChatGPT 平臺的偏見和審查問題的討論。這項研究表明,新一代的大型語言模型在回答爭議性問題時呈現出一定的中立態度,而不是直接表態。這表明,AI 技術的發展可能使 ChatGPT 等平臺更加適合處理爭議性問題,並提供更全面和客觀的訊息。同時研究人員也指出,在使用 ChatBots 作為事實核查工具時,應該清楚並誠實地向使用者揭示 ChatBot 的政治、社會和經濟等立場。建議
面對這一研究結果,我們應該更加重視 AI 技術在社會中的應用和影響。AI 平臺,特別是用於提供訊息和回答爭議性問題的 AI 平臺,應該盡可能保持中立和客觀的立場。此外對於使用 ChatBots 等技術的科學研究應該進行更全面的監管,以確保其服務和結果的公正性和可靠性。最重要的是,使用這些技術的機構和個人應該有誠實、透明地告知使用者這些技術的立場和偏見,以確保民眾對於所獲得的訊息具有足夠的識別力和理解力。Debate-ChatGPT,處理爭議性問題,偏見,審核
延伸閱讀
- Google 仍未修復 Gemini 偏見影像生成器
- Anthropic 的 Claude 在 iOS 平臺上的推出獲得微弱反韇,與 ChatGPT 的首次亮相相比
- 開放 AI (OpenAI)的 ChatGPT 新聞發布:我們當前所知道的事情
- ChatGPT 在歐盟再次遭遇隱私投訴,「幻覺」問題再起風波
- 無線耳機升級帶來 ChatGPT 貼心助手 - Nothing 最新耳機震撼登場
- ChatGPT 不再需要帳戶 - 但有一個小陷阱
- AI 動力對話機器人 ChatGPT:一切你需要知道的
- 協變科技致力於打造 ChatGPT 機器人
- Glean 欲在企業市場擊敗 ChatGPT 的遊戲
- 你比 ChatGPT 更黑嗎?來測測看!