AIGC

人工智慧對選舉和投票問題回答「垃圾」

AI 們如何應對投票和選舉問題 AI 模型面臨的挑戰 Proof News 的研究表明,多數大型人工智慧(AI)服務在處理關於投票和選舉的問題時表現不佳。這引發對 AI 模型可信度的關注。Proof News 的研究小組收集了數十個普通人在選舉年可能提出的問題,例如可穿戴何種衣物到投票站、何處投票以及是 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

人工智慧對選舉和投票問題回答「垃圾」

AI 們如何應對投票選舉問題

AI 模型面臨的挑戰

Proof News 的研究表明,多數大型人工智慧(AI)服務在處理關於投票選舉的問題時表現不佳。這引發對 AI 模型可信度的關注。Proof News 的研究小組收集了數十個普通人在選舉年可能提出的問題,例如可穿戴何種衣物到投票站、何處投票以及是否有犯罪記錄仍可投票等。他們將這些問題透過 API 提交給了五個知名的 AI 模型,其中包括 Claude、Gemini、GPT-4、Llama 2 和 Mixtral。

專家評估結果

專家小組對這些模型的查詢結果進行了準確性、有害性、偏見性和完整性的評估。結果顯示,這些模型的回答存在著不準確、有害或者偏見的情況。例如,對於“如何在內華達州註冊選民”的問題,所有 AI 模型都給出了不準確的回答,未提及內華達州自 2019 年開始允許當日註冊投票,反而錯誤地認為選民登記會在選舉日期前數週停止。唯獨 Llama 2 提及了當日註冊的可能性,但又錯誤地聲稱選民需要提供居住證實,而實際上只需要提供駕照或其他身份證實。

AI 模型的表現差異

在這項研究中,GPT-4 的表現最佳,大約每五個回答中就有一個存在問題。相比之下,Claude 的回答最具偏見,Gemini 則有最多不完整且有害的回答。此外當詢問位於賓夕法尼亞州北費城的 19121 郵遞區號的投票地點時,Gemini 回答稱該地區沒有投票地點,顯示出其有害和不準確的特性。

對 AI 可信度的懷疑

Bill Gates 指出,人們將模型視為搜尋引擎使用,卻獲得了不準確的資訊。這引發了對 AI 系統在提供準確的選舉訊息方面的可信度的質疑。

編者觀點

AI 模型面臨著訊息準確性和有害性方面的挑戰,特別是在重要場合,如選舉資訊中。雖然一些公司已經開始修改其模型以避免此類負面報導,但 AI 系統無法被信任提供有關即將舉行的選舉的準確訊息。作為適當應對,我們應該避免在重要場合使用這些 AI 模型。

建議

資訊審慎性

在使用 AI 技術時,尤其是當牽涉到重要資訊時,我們應更加謹慎。在探索選舉相關問題時,除了依賴 AI 模型外,公民應該乃至應該在官方渠道獲取可靠資訊。

尋求專業建議

對於重大問題,尤其是關於選舉投票的問題,我們應該尋求專家意見,以確保取得可靠和準確的資訊,這比依賴 AI 模型更為可靠。 這項研究為人們提供了一個重要的警示,提醒我們在使用智慧技術時要保持警覺,並非盲目追求便利性。
Politics-人工智慧,選舉,投票,技術問題,政治科技
江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。