網路議題

如同 Copilot 的 AI 模型,Meta 打造了一個程式碼生成 AI 模型

Meta 宣布研發類似 Copilot 的程式碼生成 AI 工具最近,Meta 宣布在其 AI 基礎架構的發展中,已經研發出一種程式碼生成 AI 工具,名為 CodeCompose,類似於 GitHub 的 Copilot。CodeCompose 還未公開發布,但 Meta 表示已經在其團隊中使用 .... (往下繼續閱讀)

分享到 Facebook 分享到 Line 分享到 Twitter

文章目錄

如同 Copilot 的 AI 模型,Meta 打造了一個程式碼生成 AI 模型

Meta 宣布研發類似 Copilot 的程式碼生成 AI 工具

最近,Meta 宣布在其 AI 基礎架構的發展中,已經研發出一種程式碼生成 AI 工具,名為 CodeCompose,類似於 GitHub 的 Copilot。CodeCompose 還未公開發布,但 Meta 表示已經在其團隊中使用,能夠幫助開發人員在使用諸如 VS Code 等 IDE 進行 Python 和其他語言的程式設計時提供簡化的程式碼。CodeCompose 模型具有 67 億個引數,比 Copilot 的模型引數少了一半左右,從公開研究中進行調節,並且在元資產條件下對模型進行了最佳化,以更好地適應實際應用。

慎重看待 AI 程式碼生成引發的問題

CodeCompose 等程式碼生成 AI 工具的問題值得關注。一些公司使用這樣的工具,可能會因惡意產生的程式碼引發安全漏洞,而面臨版權侵犯問題。

據報導,微軟、GitHub 和 OpenAI 正面臨集體訴訟,指控它們透過 Copilot 等程式碼生成 AI 工具,讓它們可以重複使用授權的程式碼,而不提供相應的版權授權。而一些法律專家則建議,如果公司在意外情況下將來自這樣的工具的版權建議納入生產軟體中,那麼 AI 工具中被版權保護的部分可能會導致公司風險。

以上問題,同樣也可能發生在 CodeCompose 上。Meta 表示其在訓練 CodeCompose 時使用的是「InCoder」資料集,而這個資料集的來源是來自 GitHub 和 GitLab 等網站的開放原始碼資料庫。雖然 Meta 強調 CodeCompose 也進行了 Meta 內部的補充訓練並強調保證安全考慮, 但是這一問題還需要進一步的討論研究。

警惕 AI 程式碼生成引發的安全風險

斯坦福大學的一項最新研究表明,使用程式碼生成 AI 系統的軟體工程師更容易引發應用程式中的安全漏洞。雖然這項研究沒有具體分析 CodeCompose,但認為開發者可能會受到相同的影響。類似 AI 程式碼生成工具也有可能引入不安全的程式碼。

因此開發人員應該慎重使用程式碼生成 AI 工具。Meta 建議開發者不必完全遵從 CodeCompose 的建議,,並指出在構建 CodeCompose 時,安全性是其重要的考慮因素之一。,事實上良好的軟體體系架構是在確保安全性的基礎上進行的。因此開發人員如何選擇適當的工具、使用安全的求助方式和進行全方位的程式碼審查,是完善軟體開發流程的關鍵。

AI programming or Code Generation.-AI 模型,程式碼生成,Meta

延伸閱讀

江塵

江塵

Reporter

大家好!我是江塵,一名熱愛科技的發展和創新,我一直都保持著濃厚的興趣和追求。在這個瞬息萬變的數位時代,科技已經深入到我們生活的方方面面,影響著我們的工作、學習和娛樂方式。因此,我希望透過我的部落格,與大家分享最新的科技資訊、趨勢和創新應用。