
神經屏障:保護市民免受人工智慧的威脅
作者:艾迪華 · 費爾森塔爾
來自萊斯大學貝克公共政策研究所的神經科學專家哈裏斯·艾爾(Harris Eyre)在一份新報告中主張,我們迫切需要建立一個數位自衛系統,以保護市民免受人工智慧(AI)對我們的人際關係和集體智慧進行“駭客攻擊”的威脅。眼下,政府需要採取措施規範先進的 AI 和增強型社交媒體,以防止其散布虛假訊息和誤導訊息,對我們的民主執行構成直接挑戰。
艾爾在報告中寫道:“儘管這種技術將整個世界帶到我們的裝置上,提供了個人和社區實現的豐富機會,但它也可能扭曲現實,創造出虛假的幻象。”當前深度懷疑正在引起人們的關注,尤其是在一個即將進入選舉季節的國家。艾爾認為,我們迫切需要制定基於神經科學的政策來支援市民對抗 AI,例如建立一個“神經屏障”。
生物學的脆弱性
艾爾指出:“我們理解周圍現實的方式,我們學習和反應的方式,取決於我們的大腦結構。有人認為,鑒於技術的快速發展,演化沒有足夠的時間來發展那些負責高級認知功能的新皮層區域。因此我們在生物上是脆弱和暴露的。”
建立神經屏障
報告提出了建立神經屏障的三個步驟:制定相對於訊息客觀性的行為規範、實施法規保護和創造一個市民教育工具包。
報告主張,發行商、記者、媒體領導人、意見領袖和腦科學家之間的合作可以制定支援訊息客觀性的“行為規範”。艾爾解釋說,解讀事實屬於社會和政治自由的範疇,但不容否認,必須保護不可爭辯的真相。他解釋說:“正如神經科學所證實的,對事實理解的模糊度可能會創造出‘替代事實’,這些事實會在我們的大腦中得以牢固編碼。”
神經學家開發的工具包可以保護認知自由,同時也可以保護人們免受虛假訊息的困擾,尤其是社交媒體上的年輕人。該工具包的主要目標是教導人們如何進行自主事實核查,並對抗大腦對偏見和虛假訊息的容易受到影響的特點。例如,Google 當前在其他國家開展了一系列在社交媒體網站上播放短影片的活動,強調誤導性言論的產生方式。然而艾爾指出,單純依靠行為規範和自我管理可能造成不公平的競爭環境。
艾爾表示:“政策制定者和腦科學家都需要推進這種政策方法。”他說:“提出的歐洲人工智慧法案就是預見了人工智慧模型提供者如何承擔責任並保持透明度。透過密切地讓神經科學家參與神經屏障的規劃和推出,美國可以確保最佳的認知功能相關見解被納入考慮。”
延伸閱讀
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!
- 未來科技:研究人員揭示如何打造變形機器人,猶如 T-1000 般神奇!
- ElevenLabs 推出全新語音轉文字模型,引領 AI 語音技術的新潮流!