Web 3

AI 研究領導者希望開源授權發生改變

免費開放原始碼授權之爭:Meta 的人工智慧研究負責人希望改變開放原始碼授權摘要 Meta 公司的人工智慧研究中心(Fundamental AI Research, FAIR)最近釋出了其知名的大型語言模型「Llama 2」,相對而言比競爭對手更加開放和免費。然而在開源軟體界,仍有人認為 Meta 公 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

AI 研究領導者希望開源授權發生改變

免費開放原始碼授權之爭:Meta 的人工智慧研究負責人希望改變開放原始碼授權

摘要

Meta 公司的人工智慧研究中心(Fundamental AI Research, FAIR)最近釋出了其知名的大型語言模型「Llama 2」,相對而言比競爭對手更加開放和免費。然而在開源軟體界,仍有人認為 Meta 公司的開放帶有約束。儘管 Meta 的許可證使得 Llama 2 對許多人免費,但它仍然無法滿足「開放原始碼倡議」(Open Source Initiative, OSI)所制訂的所有標準。本文將討論 Meta 公司的約束性許可證以及該措施在保護業務利益與分享資訊之間的微妙平衡,並且論及當前對於開源授權的探討及未來發展。

開放原始碼定義的爭議

根據「開放原始碼定義」,開源不僅僅是分享一些程式碼或研究。真正的開源應該包括自由再分發、提供原始碼存取和修改的許可權,並且不能與特定產品繫結。Meta 公司的許可證則包含一些約束,例如對有超過 7 億每日使用者的開發者收取許可費以及禁止其他模型使用 Llama 進行訓練。一些研究人員質疑 Meta 公司聲稱 Llama 2 為開源的真實性。基於對於開放性的約束,Meta 公司的 FAIR 主管兼人工智慧研究副總裁 Joelle Pineau 也意識到了這些約束。然而她認為這是訊息共享好處和對 Meta 業務潛在成本之間必要的平衡。在接受 The Verge 的採訪中,Pineau 表示即使 Meta 的開放方式有限,也能幫助研究人員更加專注於人工智慧專案的研究方向。

開源的重要性與挑戰

Meta 公司的 AI 部門以前也有更開放的專案,包括將機器學習程式設計語言 PyTorch 釋放到開源社區。Pineau 希望能在其生成的 AI 模型上培養相同的興奮,特別是自 PyTorch 開源以來它已經取得了很大進展。她表示決定釋放多少內容取決於一些因素,包括程式碼在外部開發者手中的安全性。試驗研究對於 FAIR 部門非常重要,以此來獲取更好的反饋。Meta 公司強調在人工智慧發展過程中創造性的協作,所以當它公布 Llama 2 的發布時,強調了公司相信生成 AI 的創新必須是協同的。

重新思考開源授權

Meta 公司的開放方式在大型 AI 公司中顯得與眾不同。OpenAI 最初作為一家更加開源開放的研究公司,但其聯合創始人兼首席科學家 Ilya Sutskever 表示分享他們的研究是一個錯誤,並提到了競爭和安全性的考量。儘管 Google 偶爾會分享其科學家的論文,但它在大型語言模型的開發方面保持沉默。開源軟體開發者通常是一些較小的開發者,如 Stability AI 和 EleutherAI,他們在商業領域中取得了一些成功。開源開發者經常在 Hugging Face 和 GitHub 這些程式碼資料庫上推出新的語言模型。還有一款名為 Falcon 的來自杜拜科技創新研究院的開源語言模型,正在與 Llama 2 和 GPT-4 競爭。 Meta 公司副總裁 Joelle Pineau 表示現有的授權制度並不適用於需要大量外部資料的軟體,而這正是許多生成 AI 服務所需。大多數授權協議,無論是開源還是專有,都對使用者和開發者負有有限的責任和侵權的極少救濟權。但 Pineau 指出,像 Llama 2 這樣的 AI 模型包含更多的訓練資料,如果它們產生了被認定為侵權行為的內容,使用者將面臨更多的法律責任。因此現有的授權協議並不能涵蓋這種不可避免的風險。人們已經開始關注在商業領域中對於開源語言模型的某些授許可權制,而一些人則認為純粹開源是一個哲學性辯論,開發者並不太在乎。開放原始碼倡議的執行總監 Stefano Maffulli 表示該組織理解現有的開源協議可能無法滿足 AI 模型的某些需求。他說,該組織正在評估如何與 AI 開發者合作,以提供透明、無需許可、但又安全的模型存取方式。他表示「我們必須重新思考授權,以解決 AI 模型的著作權和許可問題,同時保持開源社群的許多原則」。

開放原始碼的多重衡量標準

不論我們對於「Llama 2 是否真正開源」的爭論所趨向的結論為何,開源並不僅僅是開放程式碼的概念。例如,史丹佛大學的最新報告顯示,當前頂尖 AI 公司在其模型中對於潛在風險和誠信問題的討論不夠。對於任何建立 AI 模型的人來說認識到潛在風險並為反饋提供途徑並不是開源討論的標準要求,但這應該是一種理所當然的行為。

社論

風險與收益:開源與商業模式之間的平衡

本文探討了 Meta 公司在開放原始碼授權上的爭議以及 Meta 如何在開放與專利之間尋求平衡。開源的優勢在於促進創新、共享知識和進行協作,但對企業而言,過度開放可能會損害商業利益和技術機密。因此 Meta 公司在開放原始碼方面採取了一種有限的方法,旨在保護其業務利益,同時又允許研究人員參與到其 AI 專案中。 然而我們還應該關注 AI 模型的潛在風險和法律責任,特別是涉及版權侵權問題。現有的授權協議對於這些問題並不完善,我們需要重新思考如何適應這一快速發展的領域。同時相關利害關係方應該合作,共同制定更適合 AI 模型的授權協議,以確保公開性和責任性的平衡。

建議

促進透明、安全的 AI 開源生態系統

對於 Meta 公司和其他 AI 公司,我們提供以下建議以促進透明、安全的 AI 開源生態系統: 1. 提供更詳細的技術檔案:在釋出 AI 模型的同時公司應提供清晰且詳盡的檔案,以解釋模型的設計原則、訓練資料的來源和潛在風險。這樣可以增強公眾對於模型的理解和對模型負責任使用的能力。 2. 開放反饋渠道:公司應該提供開放的反饋渠道,以接受外部研究人員、開發者和使用者提出的問題、建議和指教。這樣可以幫助改進和強化模型的合規性和安全性。 3. 合作開發行業標準:公司應該積極參與行業聯盟和組織,共同制定 AI 模型的開源標準和最佳實踐。這樣可以確保模型的安全性、責任性和互通性,並促進行業的發展和創新。 4. 擴大開源共享:公司應該積極開放更多的 AI 模型,為外部研究人員和開發者提供更多的共享機會。這樣可以促進知識交流和技術發展,提高整個 AI 社群的水平和競爭力。 5. 提高風險意識和法律責任:公司應該更加重視 AI 模型的潛在風險和法律責任,並確保模型的使用和部署符合當地的法律和道德標準。同時公司也應該為使用者提供清晰的法律指導,以幫助使用者識別和解決可能的法律問題。 透過這些建議,我們可以共同營造一個開放、安全且透明的 AI 開源生態系統,從而推動 AI 技術的發展和應用,造福整個社會。
OpenSource-開源授權,AI 研究,領導者,改變
程宇肖

程宇肖

Reporter

大家好!我是程宇肖,我對於科技的發展和應用有著濃厚的興趣,並致力於將最新的科技趨勢和創新帶給大家。科技領域的變化速度驚人,每天都有令人興奮的新發現和突破。作為一名部落格作者,我將帶領大家深入探索科技的奧秘和應用的無限可能。