人工智慧時事透視:當「開源」並非真正開放
By
開源概念的誤解
在人工智慧領域,概念的誤解可能導致實際上對於「開源」的定義起了爭議。Meta 最新發布的 Llama 系列的生成式 AI 模型引發了對於開源定義的討論。儘管 Meta 宣布這兩款 Llama 3 模型是「開源」的,但實際上 Meta 對這些模型實施了特定的授許可權制。
開源與 AI 的思考
在 AI 領域中,開源的概念並非單純的程式碼開放共享,更牽涉到資料訓練、執行成本和修改等方面的約束。難以把 AI 模型的各個組成部分套用於傳統的開源概念之中,因此 AI 開源帶來的不確保性和爭議也更加顯著。
大資料帶來的權力不平等
研究指出,由於 Meta 等科技巨頭所推動的「開源」專案往往更多地為維護者提供技術和戰略利益,而非平等地造福整個開源社區。這恰恰與開源的理念背道而馳,未能實現 AI 的民主化。在 AI 開源過程中,隱藏的資料、高昂的運算成本以及修改難度等因素,進一步加劇了 AI 技術帶來的權力不平等。技術巨頭的行為對於開源理念的扭曲也值得我們關注。
未來 AI 發展與倫理議題
AI 在社交平臺的應用
Meta 近期更新了其聊天機器人,同時也加入了 AI 生成的圖片、網路搜尋等新功能。然而 AI 生成的圖片也引發了社群平臺保護使用者的討論。Snap 計劃在 AI 生成的圖片上新增水印,以確保使用者能夠識別圖片的真實性。
科技巨頭的技術突破
Hyundai 旗下的機器人公司 Boston Dynamics 發布了其新一代電動人形機器 Atlas。除此之外,Mobileye 創始人 Amnon Shashua 推出了新的雙足機器人專案 Menteebot。這些技術突破引發了對於 AI 科技發展的更多關注。
AI 在全球應用的擴充套件
OpenAI 計劃擴充套件至日本,並推出了針對日本語言的 GPT-4 模型。同時英國通訊管理局(OFCom)也計劃使用 AI 技術來保護兒童免受線上有害內容的侵害。這些事件標誌著全球 AI 技術發展的不斷擴充套件。
技術進步與倫理挑戰
AI 對於社會的影響
研究顯示 AI 生成的語言模型在辯論中可能比人類更具說服力。然而這也引發了對於 AI 技術應用的倫理問題。AI 技術潛在的社會影響和道德風險也需要我們進一步關注。
AI 在長期計劃的影響
倫理學家就 AI 的長期計劃和對人類社會的潛在風險提出了警示。這些討論也提醒我們在 AI 技術發展中需要更加謹慎並建立適當的倫理規範。
上述種種追求技術進步的同時我們也需要重視其背後的倫理和道德挑戰。
延伸閱讀
- 特斯拉 CEO 為人工智慧新創公司籌集 60 億美元,TikTok 是否在逃避蘋果的傭金?
- Allozymes 以加速酶學應用於資料和人工智慧,籌集 1500 萬美元
- 在 TC 的 Techstars 調查內部以及人工智慧如何加速殘障科技
- Microsoft 禁止美國警察局使用企業人工智慧工具
- 你的 AI 原生新創公司並非一般的 SaaS 公司
- Airbnb 釋出團體訂房功能,並整合人工智慧以提升客戶服務
- 科技新聞網站+ 限時優惠:TechCrunch Disrupt 低於 100 美元的展覽門票現已開放
- 歐洲殘障科技新創如何利用人工智慧?
- SafeBase 使用人工智慧自動化軟體安全審查
- AI 新創點子解決創辦人個資外洩的痛 - 這位創辦人深受影響後的啟發