AIGC

歐盟呼籲加固生成式 AI 保障措施,因深度偽造選舉帶來風險

深偽選舉風險引發歐盟呼籲加固生成式 AI 保障措施歐盟警告表示有必要更多努力應對廣泛可及的生成式 AI 工具對民主社會中自由公正辯論可能帶來的風險,該聯盟的價值和透明度專員在明年舉行的全歐洲國會選舉之前,將 AI 生成的虛假訊息列為選舉的潛在威脅。翁羅娃在今天的演講中,在向代表們報告有關對抗虛假訊息 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

歐盟呼籲加固生成式 AI 保障措施,因深度偽造選舉帶來風險

深偽選舉風險引發歐盟呼籲加固生成式 AI 保障措施

歐盟警告表示有必要更多努力應對廣泛可及的生成式 AI 工具對民主社會中自由公正辯論可能帶來的風險,該聯盟的價值和透明度專員在明年舉行的全歐洲國會選舉之前,將 AI 生成的虛假訊息列為選舉的潛在威脅。翁羅娃在今天的演講中,在向代表們報告有關對抗虛假訊息的自願性行為守則的最新進展時,對一些主流平臺在應對 AI 風險方面採取的保護措施表示讚賞,她稱這些措施是為了通知使用者網上發布內容的“合成起源”。但是她表示需要付出更多努力。她警告:“鑒於此類逼真的 AI 產品在創造和傳播虛假訊息方面的巨大潛力,這些努力需要繼續下去並加固。在選舉的背景下,風險尤為高。”這位歐盟專員指出,她將在今天稍晚時候會見 ChatGPT 製造商 OpenAI 的代表,討論這個問題。這家人工智慧巨頭尚未成為該聯盟反虛假訊息守則的簽署者,所以很可能面臨加入這一努力的壓力。(我們已經聯絡 OpenAI 提出了關於他們與翁羅娃會談的問題。)

AI 生成的影象對選舉將產生多大影響?

專員今天關於生成式 AI 的言論是在今年夏天向平臺施加壓力後發表的,當時她敦促簽署者標註深度偽造和其他 AI 生成的內容,要求守則簽署者建立一個專門的、獨立的軌道來應對“AI 產量”,並說機器不應該具有言論自由。預計即將到來的歐盟 AI 法案(即歐盟 AI 法案)將使生成式 AI 技術的製造商承擔法律責任,需要進行使用者披露。儘管這項法案仍在歐盟共同立法者的談判中討論,並且一段時間內不會實施,但委員會已轉向將守則作為臨時措施的一部分,以鼓勵簽署者積極披露將來可能成為強制性的深度偽造內容。根據官方的努力在去年加固反虛假訊息守則之後,委員會也明確表示它將把遵守這一非法律約束的守則視為對遵守《數位服務法》(DSA,另一項重要的全歐洲數位法規,要求非常大的線上平臺和搜尋引擎評估和減輕其演算法所帶來的社會風險,例如虛假訊息)的個體是一個有利的訊號。「即將舉行的國家和歐洲選舉將是平臺守則簽署者不能失敗的一次重要考驗,」翁羅娃今天說道,“平臺必須認真履行自己的責任,特別是考慮到對選舉風險。《DSA》現在是有約束力的,所有非常大的線上平臺都必須遵守。守則作為《DSA》的基礎,因為我們的目標是將《實踐守則》轉化為行為守則的一部分,這可以成為共同監管框架的一部分,以應對虛假訊息的風險。”根據今天由反虛假訊息守則簽署者提交的第二批報告,該報告涵蓋了今年 1 月至 6 月的期間。截至當前只有少數報告可以在歐盟的虛假訊息守則透明中心上下載,其中包括 Google、網路、微軟和抖音的報告。歐盟表示這些報告是自 2018 年設立守則以來簽署者產生的最全面的報告。

生成式 AI 報告

生成式 AI 方面,Google 的報告談到了“大規模 AI 模型的最新進展”,並表示這些進展已經引發了有關 AI 社會影響的進一步討論,並對謠言等問題提出了擔憂。這家科技巨頭是搜尋領域早期採用生成式 AI 的公司之一—透過其 Bard 聊天機器人。該報告摘要中寫道:“Google 致力於負責任地開發技術,並發表了 AI 原則來指導我們的工作,包括我們不會追求的應用領域。”在談到這一主題時,它還表示:“我們還建立了一個管理團隊,透過對新系統進行道德審查,避免偏見,並融入隱私、安全和安全性。”“Google 搜尋已經發布了有關 AI 生成內容的指南,概述了它在維護高水準資訊質量和搜尋內容的整體幫助性方面的做法。為了幫助應對虛假訊息,Google 還宣布,它將很快將新的水印、後設資料和其他技術創新整合到其最新的生成模型中。“Google 最近加入了其他領先的人工智慧公司,共同承諾在人工智慧開發中推進負責任的做法,以支援 G7、OECD 和國家政府的努力。未來,我們將繼續報告和擴大 Google 開發的 AI 工具,致力於推進大膽且負責任的 AI,以將 AI 的利益最大化,將其風險降至最低。”該報告還指出,接下來的六個月內,Google 搜尋沒有計劃採取任何額外措施來應對 YouTube 的風險。但是隨著生成式影象功能在明年內在內部推出,Google 搜尋承諾利用 IPTC 圖片後設資料標準為由 GoogleAI 生成的影象新增後設資料標籤。Google 的報告進一步指出:“創作者和發布者也可以向自己的影象新增類似的標記,以便在搜尋中顯示標籤,以指示該影象為 AI 生成。”

微軟——也是 OpenAI 的重大投資者,並將生成式 AI 能力融入自己的搜尋引擎——宣稱它正在採取“整體公司的跨產品方法來確保負責任地實施 AI”。該報告提到了微軟的“負責任 AI 原則”,稱其為“負責任 AI 標準 v.2”和“訊息完整原則”,以幫助確立產品團隊的基準標準和指導。“認識到政府、學術界和公民社會在負責任部署 AI 方面發揮了重要作用,我們還為全球 AI 治理建立了一個路線圖,並制定了在微軟內部和全世界,尤其是在歐洲,有關負責任推進 AI 的願景,”微軟接著說道,並承諾在努力中繼續建立新工具(例如與 Truepic 合作的 Project Providence)和建立合作夥伴關係(例如與“內容來源和真實性合作聯盟”(C2PA)合作,以打擊被操縱或由 AI 創造的媒體;與 EFE Verifica 合作追蹤在西班牙、拉丁美洲和講西班牙語的人口中傳播的假敘述;以及與無國界記者合作,在微軟產品中使用他們的新聞信任倡議資料集)。“這些合作夥伴關係是我們努力的一部分,旨在使微軟使用者能夠更好地理解他們在我們的平臺和產品上消費的訊息,”它還說道,還提到在媒體素養宣傳活動和“網路安全技能培訓”方面所進行的努力,並指出這些不是為了告訴人們相信什麼或如何思考,而是為了讓人們具備批判思維和做出有根據的決策的能力。在微軟迅速在必應搜尋中嵌入生成式 AI 功能後,報告還宣稱它已採取了一系列措施來減輕風險,包括在開發過程中適用其 AI 原則並與專家諮詢;進行預發布測試和有限先行測試期和分階段發布;使用分類器和元提示、防禦性搜尋介入、增強的報告功能以及增加的運營和事故應對;以及更新必應的使用條款,包括使用者行為準則。該報告還聲稱微軟建立了一個“強大的使用者報告和申訴程式,以審查和回應對有害或誤導性內容的使用者關注”。在接下來的六個月內,報告未提及必應搜尋將採取任何特定的額外步驟來應對生成式 AI 使用帶來的風險。但是微軟只是表示將繼續密切關注,並寫道:“必應定期審查和評估與現有和新的必應功能相關的政策和實踐,根據需要進行調整和更新政策。”

在其報告中,TikTok 重點講述了在確保其服務“完整性”方面的 AI 生成內容,強調了最近對其社區準則的更新,該更新也使其修改了其合成媒體政策“以應對在我們的平臺上使用 AI 技術建立或修改的內容”。它還寫道:“儘管我們歡迎新的 AI 技術可能帶來的創造力,在我們更新的政策中,使用者必須主動披露他們的內容是由 AI 生成或經過修改的,但顯示出逼真場景。”它還寫道:“我們繼續打擊隱蔽的影響行動(CIO),並且我們不允許任何企圖以誤導我們平臺的系統或社區有關帳戶的身份、來源、運營地點、受歡迎程度或目的的行為。”“CIO 在我們發現的並移除的網路中,繼續演變。這就是為什麼我們繼續對複雜的欺騙行為進行研究和評估,並制定適當的產品和政策解決方案。我們繼續提供關於我們識別和刪除的 CIO 網路的訊息,可以在本報告內及我們的透明度報告中找到。”在 TikTok 的報告中,第 15 項承諾將該平臺納入“考慮透明義務和《人工智慧法案》禁止的操縱性做法清單中”,並列出了成為合成媒體“負責實踐夥伴”(PAI)的推出夥伴的名單(並為“相關實踐”的發展做出貢獻);並加入“新的相關團體”,比如本月開始工作的生成式 AI 工作組等舉措落地。在接下來的六個月中,報告表示他們希望進一步加固對合成媒體政策的執行,並在此領域探索“新的產品和計劃,以增強我們在這方面的檢測和執行能力”,包括在使用者教育方面。著名的社交媒體公司元(Formerly Facebook、Instagram 母公司 Meta)的報告還承認:“生成式 AI 工具的廣泛可用性和應用,可能對我們如何確保和應對平臺上的虛假訊息問題產生影響。”“我們希望與政府、行業、公民團體和學術界的合作夥伴一起努力,以確保我們可以為解決由 AI 生成的虛偽訊息提供堅實可靠的解決方案。”Meta 中段地寫道,並指出該公司已經簽署了 PAI 的《負責實踐合成媒體》(Responsible Practices for Synthetic Media)協議,並表示公司“致力於跨行業合作,為我們的使用者維護線上訊息環境的完整性”。該報告進一步補充說:“此外為了讓更多人參與這個過程,我們正在啟動一個關於生成式 AI 社區的論壇,旨在為人們提供新 AI 技術中希望看到的原則方面的反饋。”“這個論壇將與斯坦福大學 Deliberative Democracy Lab 和行為洞察團隊協商舉辦,並與我們共享 AI 模型的開放協作方法一致。我們期待作為合成媒體任務特別工作組成員,擴大這項工作,並期待與其他成員合作。“同時讓守則簽署者取得更多成果,其中翁羅娃今天敦促守則簽署者在幾個其他方面取得更大進展,包括(再次)呼籲更一致的審核和投資事實查核,尤其是在較小的成員國和語言環境中。她還批評平臺在資料存取方面的作為,表示他們必須加大努力確保研究人員有能力審查虛假訊息傳播,並為必要的透明度作出貢獻。這些都是艾隆·馬斯克的新擁有者的推特(現稱為 X)在對抗虛假訊息方面不符合歐盟期望的兩個領域。推特(現為 X)是反虛假訊息守則的原始簽署者,但自 5 月份以來,隨著該公司採取的行動受到更多歐盟關注,馬斯克將該平臺從《虛假訊息守則》中拉出。今天正如我們之前報導的那樣,翁羅娃還提到了一些剩餘簽署者進行的早期分析,她表示在虛假訊息比例方面,X 的表現最差。這表明 X(在今年 4 月被歐盟確保為 DSA 下的一家非常大的線上平臺)繼續讓自己成為歐盟委員會關注的焦點——包括在應對克林姆林宮宣傳的優先問題上。除了設計反虛假訊息守則外,該區域執行委員會現在還負責監督非常大的線上平臺對《數位服務法》的遵守情況——根據該新法對違法者處以相當於全球年度營業額 6%的罰款。

克林姆林宮宣傳

翁羅娃今天還警告說,平臺必須集中努力抗擊克林姆林宮宣傳的傳播,並提到了明年歐盟選舉風險,稱俄羅斯加大了插手選舉的力度。她表示:“對簽署者的主要訊息之一是要意識到上下文。俄羅斯對烏克蘭的戰爭以及明年即將到來的歐洲選舉尤其重要,因為虛假訊息的風險尤其嚴重,”她說:“俄羅斯國家已經參與了意識形態戰爭,試圖透過半真半假和謊言來污染我們的訊息空間,創造一個假象,民主並不比獨裁好。”“今天這是一種價值數百萬歐元的大規模操縱武器,旨在干擾我們,同時在內部干擾俄羅斯人民以及歐洲和世界其他地區。我們必須應對這種風險。非常大的平臺必須應對這個風險。特別是我們必須預期克林姆林宮和其他人在選舉之前活躍。我希望簽署者調整他們的行動,以響應訊息空間中正在針對我們進行的訊息戰,並關注即將到來的選舉。” 根據委員會對大型科技公司的守則報告的早期分析,YouTube 在 2023 年 1 月至 4 月間關閉了超過 400 個與俄羅斯國家贊助的網際網路研究署(IRA)有關的協調影響行動渠道。它還刪除了與國家資助的宣傳網站相關的近 300 個站點上的廣告。歐盟指出 TikTok 的事實查核工作現在涵蓋了俄羅斯、烏克蘭、白俄羅斯和 17 種歐洲語言,包括透過與路透社的新合作夥伴關係。翁羅娃指出:“在這種情況下,我們已經對與這場戰爭有關的 832 個影片進行了事實查證,其中已經刪除了 211 個。”歐盟還指出,根據微軟的報告,在與烏克蘭危機相關的近 80 萬個搜尋查詢中,必應搜尋要麼推廣訊息,要麼降低了可疑訊息。翁羅娃的演講還強調了她敦促守則簽署者在其他幾個領域採取更進一步行動的地方——再次呼籲更一致的審核和投資事實查核,特別是在較小的成員國和語言環境中。她還批評平臺能夠獲取資料的問題,表示它們必須加大努力,確保研究人員有能力檢視虛假訊息的流動“並為必要的透明度提供貢獻”。這些都是埃隆·馬斯克的新擁有者的推特(現稱為 X)在對抗虛假訊息方面不符合歐盟期望的兩個領域。推特(現為 X)是反虛假訊息守則的原始簽署者,但自 5 月份以來,隨著該公司採取的行動受到更多歐盟關注,馬斯克將該平臺從《虛假訊息守則》中拉出。今天正如我們之前報導的那樣,翁羅娃還提到了一些剩餘簽署者進行的早期分析,她表示在虛假訊息比例方面,X 的表現最差。這表明 X(在今年 4 月被歐盟確保為 DSA 下的一家非常大的線上平臺)繼續讓自己成為歐盟委員會關注的焦點——包括在應對克林姆林宮宣傳的優先問題上。除了設計反虛假訊息守則外,該區域執行委員會現在還負責監督非常大的線上平臺對《數位服務法》的遵守情況——根據該新法對違法者處以相當於全球年度營業額 6%的罰款。

AIRegulation-生成式 AI,歐盟,保障措施,深度偽造,選舉,風險
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。