
一種破壞工具應對 AI 影象爬蟲問題
破壞工具 Nightshade 的開發
來自芝加哥大學的研究人員宣布開發了一種名為「Nightshade」的工具,用於對抗 AI 公司用於訓練影象生成模型的圖形的擁有權爭議問題。該工具可操縱影象畫素,在訓練過程中改變輸出結果。這種改變在處理之前對肉眼是不可見的。該研究團隊的一位作者 Ben Zhao 表示 Nightshade 可以破壞資料,例如將訓練時的狗影象轉換為貓影象。他稱這個工具為「內容創作者對抗忽視拒絕存取/不爬取指令的網路爬蟲的最後防線」。
影象爬蟲問題對藝術家的影響
長期以來,藝術家一直擔心諸如 Google、OpenAI、Stability AI 和 Meta 等公司收集網路上數十億張影象來訓練有價值的影象生成工具,卻未向創作者提供任何補償。愛爾蘭人工智慧監管協會的顧問 Eva Toorenent 在最近的一次訪談中表示這樣的做法「已經榨乾了數百萬藝術家的創造力」。
影響訓練過程所需樣本數量的降低
儘管人們普遍認為破壞爬蟲操作需要上傳大量變形影象,但該研究團隊證實他們只需少於 100 個「毒害」樣本就能實現破壞。他們使用了特定提示的毒害攻擊方法,這種方法所需的樣本比模型訓練資料集少得多。Zhao 認為,Nightshade 不僅對個人藝術家有用,對大型公司也是如此,例如電影公司和遊戲開發商。他舉例說,迪士尼可以將 Nightshade 應用於其「仙履奇緣」的印刷影象,同時與其他人協調「美人魚」的毒害概念。
AI 公司合理使用網路內容的反對浪潮
一些 AI 公司以公平使用規則為由,宣稱他們可以合理使用網路內容,這引發了對他們的強烈反對。去年夏天,對 Google 和 Microsoft 的 OpenAI 提起了訴訟,指控這些科技巨頭未經許可使用版權材料來訓練其 AI 系統。原告方律師 Ryan Clarkson 表示:「Google 並不擁有網際網路,也不擁有我們的創作作品,也不擁有我們對我們的人性、我們的家庭和孩子的照片或其他任何東西的所有權,僅僅因為我們在網路上共享了這些東西。」如果被判有罪,這些公司可能面臨數十億的罰款。Google 試圖要求駁回該訴訟,並在法庭檔案中表示:「使用公開可用訊息進行學習並不是盜竊,也不是侵犯隱私、侵權、疏忽、不正當競爭或侵犯版權。」
評論與建議
保護藝術家合法權益的必要性
在數位時代,藝術家的創作作品往往面臨無法控制的濫用和盜用。AI 影象爬蟲問題進一步加劇了這個問題,使得無數創作者的作品變得容易被擅自使用和擴散。這對藝術家們的生計和權益產生了嚴重的負面影響。
破壞工具的價值與約束
Nightshade 這種破壞工具的出現給了藝術家們一個回應這一問題的可能性。它提供了一種手段,使藝術家能夠破壞被 AI 公司使用的影象,以保護自己的作品。然而我們不能指望破壞工具能徹底解決這個問題。它只是一種應對手段,而不是根本解決方案。更重要的是,我們需要透過法律和規章制度的改革,確保藝術家的權益得到充分保護。
平衡技術發展和藝術家權益的重要性
AI 技術的發展和應用為人類帶來了巨大的益處,但同時也引發了一系列困擾。在 AI 發展的過程中,我們必須平衡技術發展和藝術家權益之間的衝突。我們需要建立起一個公平和合理的機制,保護藝術家的創作權和收益權,同時為 AI 技術的發展提供必要的空間。
對於藝術家們來說他們應當意識到他們的作品所面臨的潛在風險,並積極保護自己的權益。除了使用 Nightshade 等工具,藝術家們還可以探索版權保護和數位水印等技術,以充分保護自己的創作。同時政府和國際組織也應該加固對版權保護的監管和執法,為創作者提供更好的法律保護。
延伸閱讀
- MDC 研發首款可在 MRI 內部操作的外科手術機器人,醫療科技進入新紀元!
- 加速核聚變公司獲得 1500 萬美元投資,重啟冷聚變挑戰!
- 蘋果祕密研發!數百人聯手打造智慧機器手臂搭載 iPad
- 科技巨頭聯手成立行業組織,助力研發下一代人工智慧晶片元件
- 卡內基美隆大學研發低空飛行無人機,協助繪製山火地圖
- Spotify 研發新工具,讓使用者混音歌曲,曝光截圖揭祕
- 歐盟與美國宣布共同合作,致力於人工智慧安全、標準與研發
- 人工智慧新創公司 Augmental 致力於頭部追蹤和「無聲語言」技術的研發
- 哈佛大學研發機器外骨骼助步器,有助改善帕金森症患者步態並減少跌倒率
- 西雅圖生物科技樞紐獲得科技大咖 7.5 億美元支援,共同研發「DNA 打字機」技術