美國參議員對 Meta CEO Mark Zuckerberg 發出質疑
美國參議員 Richard Blumenthal(D-CT)和 Josh Hawley(R-MO)發表信件質疑 Meta CEO Mark Zuckerberg,指控 Meta 的主開啟源大型語言模型 LLaMA 被泄露,可能會被用於垃圾郵件、詐騙、惡意軟體、隱私侵犯、騷擾和其他不當用途。 他們要求 Meta 提供關於 LLaMA 釋出風險評估的訊息以及關於在獲得了 LLaMA 未受約束的公開發布後如何更新其政策和實踐的訊息。此次參議員的質疑是在 LLaMA 於今年二月被發布後才出現的。
開源界望風而靡
LLaMA 的發布釀就由 Meta 的開源社群,強烈希望同時開放和共享 AI 模型。LLaMA 立刻被譽為媲美 GPT-3 的模型,並且獲得了超越 GPT-3 的表現。而此次參議員就針對 LLaMA 的泄漏發表了質疑,暗示開源圈是勢力擴大和激辯不斷的焦點。
Meta 開源模型的準備不足
參議員在信件中針對 Meta 對於 LLaMA 的分發及其使用 "泄漏" 一詞發表批評。他們表示“分發 LLaMA 的這種無節制和寬容方式,引發了重要且復雜的問題,關於何時何如公開釋放精細的 AI 模型是合適的。” 信中還說:“考慮到 LLaMA 釋出時的明顯保護不足,Meta 應該知道 LLaMA 將廣泛散播,並且應該預料到潛在的濫用風險。盡管 Meta 將釋出描述為一次泄漏事件,但其 AI 科學家表示開放模型對其商業成功至關重要。不幸的是,Meta 似乎沒有在釋放之前進行任何有意義的風險評估,儘管可能會無監管地大量散布。”
LeCun 引領的 Meta AI 科學家團隊存在爭議
Meta 透過其首席 AI 科學家 Yann LeCun 在 2013 年創立的基礎 AI 研究團隊(FAIR),而繼續以此爲基礎打造下一代開源 AI 模型。Meta 發布 LLaMA 的模型重量使得對於選擇的學術研究人員提供模型,但這些重量隨後在 4chan 上泄漏。這使得全球的開發者們首次完全接觸到了 GPT 等級的 LLM 。盡管這些開源的 LLM 應用尚未面向商業,但這種模型權重的泄漏可能會損害商業模型的競爭力。
開源模型及團隊的未來
開源模型的競爭依然生機勃勃,建議 Meta 採用授權方案開放出更多模型,讓更多人爲 AI 提供自己最深入的見解,這樣做有助於實現更廣泛的 AI 實驗和發現。對於 Meta 的開源技術團隊 FAIR,建議他們應積極作爲透明、公平的合作夥伴,這樣有助於推進 AI 技術的變革。
延伸閱讀
- 為何 Meta 看好 fediverse 作為社交媒體的未來
- 歐盟對 Meta 監視廣告模式實施更嚴格管制
- Meta 開放 Quest OS 給第三方耳機製造商,與聯想和 Xbox 合作夥伴關係
- 元宇宙新趨勢:Meta 推出全新 Llama 3 機型,為開源人工智慧注入動力
- Meta 將 Llama 3 智慧聊天機器人整合到其應用程式的搜尋欄位
- 大型廣告科技巨頭如 Meta 必須給予歐盟使用者真正的隱私選擇,歐盟資料保護委員會表示
- 歐盟隱私機構對 Meta 有爭議的「同意或付費」策略採取立場
- 緊密監控:Meta 因遵守法院禁令而在土耳其停止與 Instagram 分享資料
- 特斯拉降價、Meta 確認發布 Llama 3,蘋果允許模擬器進入應用商店
- 新聞標題:Meta 在 Instagram 測試 AI 動力搜尋欄