
商業化 LLaMA:創新 AI 模型引發立法者質疑
最近,《The Information》報導指出,Meta 正在努力將其開放原始碼的 LLM(Language Learning Model)Llama 的下一個版本,商業化,而當前該模型僅供研究人員使用。然而這則訊息卻應付不了立法者的詢問,包括兩位美國參議員上週發給 Meta CEO Mark Zuckerberg 的一封信,質疑 LLaMA 模型宣布一週後即在 4chan 外洩。正如 VentureBeat 報導所述,由於 Meta 首席人工智慧科學家 Yann LeCun 於 2013 年創立的基礎人工智慧研究團隊(FAIR),Meta 被認為是“最為開放”的大型科技公司。曾根據研究許可使用案例將 LLaMA 模型權重提供給學術界和研究人員,例如斯坦福大學的 Alpaca 計畫,但後來這些權重被洩漏,從而使全球的開發人員首次完全使用 GPT 級別的 LLM。Meta 的最新努力正值國會優先規範人工智慧之際,而開源人工智慧正在迎來新的 LLM 浪潮。例如,上個月,OpenAI CEO Sam Altman 在參議院隱私、技術與法律小組的聽證會上作證,小組主席是參議員 Richard Blumenthal(來自康涅狄格州的民主黨)和副主席是參議員 Josh Hawley(來自密蘇裏州的共和黨),他們呼籲成立一個新的人工智慧監管機構,而 Blumenthal 和 Hawley 則是發給 Zuckerberg 有關 LLaMA 的信件的兩位參議員。然而 Meta 仍然堅定地承諾支援開放原始碼的人工智慧:例如,在上週的內部全體會議上,Zuckerberg 表示 Meta 正在將生成式人工智慧應用於其所有產品,並再次確認公司對“基於開放科學的方法”進行人工智慧研究的承諾。
商業化的挑戰
Meta 商業化 LLaMA 的決定既引起了一些肯定的回應,也面臨著許多挑戰。當今社會,人工智慧已經成為各個領域的核心技術之一,大多數科技公司都希望能夠應用 AI 來提升他們的產品和服務。Meta 希望透過商業化 LLaMA,將其開放原始碼的人工智慧模型應用於更廣泛的場景,並為小企業和內容創作者提供強大的 AI 工具。然而此舉卻引起了被譽為“最為開放”的公司詢問的問題。立法者擔心開放原始碼的 AI 模型可能被惡意使用,或者可能泄漏敏感訊息。鑑於此,Meta 需要考慮到立法者的擔憂,積極回答他們的問題和質疑。
道德和法規問題
除了立法者的質疑,商業化 LLaMA 還引發了一些哲學和道德上的問題。開放原始碼的人工智慧模型可以為各個領域帶來巨大的潛力和便利,但同時也帶來了個人隱私和道德問題。隨著 AI 模型變得越來越強大和智慧,人們對於如何管理和監管這些模型的需求也越來越迫切。立法者正呼籲成立專門的 AI 監管機構,以確保 AI 模型的安全使用和避免濫用。不僅如此,開發人員和科學家也應該考慮到個人隱私和倫理原則,確保模型使用的透明度和公正性。
結論
商業化 LLaMA 是 Meta 追求開放原始碼人工智慧的一個重要舉措,但同時也帶來了立法者的質疑和一系列問題。要解決這些問題,Meta 應該積極回應立法者的關切,並考慮對 AI 模型進行更嚴格的管理和監管。同時開發人員和科學家也有責任在開源 AI 的發展中考慮到個人隱私和倫理原則,確保模型的透明度和公正性。最重要的是,在 AI 領域的發展中,科技公司應該根據道德和法律的準則,確保人工智慧的應用始終維護公眾利益和個人隱私。
延伸閱讀
- Joby 推出 3 億美元公開募資,為 2025 年無人駕駛飛行器商業化鋪路!
- OpenAI 考慮取消約束,AGI 商業化程式或將迎來重大變革!
- 立法者修訂兒童網路安全法案以解決 LGBTQ 倡導者的擔憂
- 麻州立法者審議「殺手機器人」法案
- 本週人工智慧新聞:OpenAI 危機揭示商業化的危險
- ZeroRISC 籌集 500 萬美元,為晶片提供基於 OpenTitan 的商業化雲端安全解決方案
- 英國立法者透過法案,協助查獲非法加密貨幣
- 歐盟立法者就有爭議的 CSAM 掃描檔案達成關鍵檢測約束協議
- 歐盟立法者在媒體自由法案投票中針對大型科技公司的「武斷」決策下手
- 蘋果首款「碳中和」產品遭新報告質疑