
Meta 宣布研發類似 Copilot 的程式碼生成 AI 工具
最近,Meta 宣布在其 AI 基礎架構的發展中,已經研發出一種程式碼生成 AI 工具,名為 CodeCompose,類似於 GitHub 的 Copilot。CodeCompose 還未公開發布,但 Meta 表示已經在其團隊中使用,能夠幫助開發人員在使用諸如 VS Code 等 IDE 進行 Python 和其他語言的程式設計時提供簡化的程式碼。CodeCompose 模型具有 67 億個引數,比 Copilot 的模型引數少了一半左右,從公開研究中進行調節,並且在元資產條件下對模型進行了最佳化,以更好地適應實際應用。
慎重看待 AI 程式碼生成引發的問題
CodeCompose 等程式碼生成 AI 工具的問題值得關注。一些公司使用這樣的工具,可能會因惡意產生的程式碼引發安全漏洞,而面臨版權侵犯問題。
據報導,微軟、GitHub 和 OpenAI 正面臨集體訴訟,指控它們透過 Copilot 等程式碼生成 AI 工具,讓它們可以重複使用授權的程式碼,而不提供相應的版權授權。而一些法律專家則建議,如果公司在意外情況下將來自這樣的工具的版權建議納入生產軟體中,那麼 AI 工具中被版權保護的部分可能會導致公司風險。
以上問題,同樣也可能發生在 CodeCompose 上。Meta 表示其在訓練 CodeCompose 時使用的是「InCoder」資料集,而這個資料集的來源是來自 GitHub 和 GitLab 等網站的開放原始碼資料庫。雖然 Meta 強調 CodeCompose 也進行了 Meta 內部的補充訓練並強調保證安全考慮, 但是這一問題還需要進一步的討論研究。
警惕 AI 程式碼生成引發的安全風險
斯坦福大學的一項最新研究表明,使用程式碼生成 AI 系統的軟體工程師更容易引發應用程式中的安全漏洞。雖然這項研究沒有具體分析 CodeCompose,但認為開發者可能會受到相同的影響。類似 AI 程式碼生成工具也有可能引入不安全的程式碼。
因此開發人員應該慎重使用程式碼生成 AI 工具。Meta 建議開發者不必完全遵從 CodeCompose 的建議,,並指出在構建 CodeCompose 時,安全性是其重要的考慮因素之一。,事實上良好的軟體體系架構是在確保安全性的基礎上進行的。因此開發人員如何選擇適當的工具、使用安全的求助方式和進行全方位的程式碼審查,是完善軟體開發流程的關鍵。
延伸閱讀
- 「Inception 首度曝光!全新 AI 模型顛覆科技界!」
- 《Anthropic 利用寶可夢測試最新 AI 模型,成果驚人!》
- Meta 員工探討使用版權內容進行 AI 訓練,背後隱祕曝光!
- Meta 在印度擴張:即便裁員潮來襲,科技巨頭仍然看好市場潛力!
- Meta 暫停書籍授權以進行 AI 訓練,背後原因揭曉!
- Meta 的新戰略布局:進軍類人機器人領域!
- Meta 宣布「水域計畫」,全球 5 萬公裏海底電纜工程重磅揭幕!
- 「Meta 技術長:若不滿新政策,員工應該考慮辭職!」
- 「Arm 即將推出自家晶片,Meta 成為首位大客戶!」
- 前 Meta 員工提起性騷擾訴訟,揭開科技巨頭隱祕面紗!