
藝術家對抗 AI 的挑戰
設身處地想像你在辦公室,每天的便當總是神祕失蹤。你可能會試圖在便當加點辣醬,以防止再次被偷。同理,藝術家也需要保護自己的作品,防止其被未經許可用於訓練人工智慧(AI)模型。然而向 AI 公司提出“不要刮取”請求或使用“別刮取”程式碼需要依賴對方的公信良心。這對許多藝術家來說並非可行,因為他們需要社交媒體的曝光來為自己贏得委託和工作機會。
夜影工具的作用
芝加哥大學的「夜影」專案提供了一種解決方案,它對影象資料進行“蓄意毒害”,從而使其對 AI 模型的訓練變得無效或具有干擾性。該工具透過“蓄意毒害”會改變畫素,使得 AI 模型在詮釋影象時產生截然不同的結果。
藝術家的保護措施
許多藝術家已經開始使用夜影工具來保護自己的作品,以防止其被未經許可地用於 AI 模型的訓練。當然這引發了一些爭議,比如有人批評這是一種“滲入式軟體”,但對於許多藝術家來說這是一個必要的防護措施。
倫理爭議
夜影工具的引入,引發了對於使用該工具的道德爭議,但仍有許多藝術家和公眾支援其使用。AI 技術的不斷發展也需要與之相應的道德思考和相應措施。
結語
對於藝術家和 AI 公司之間權益的平衡,需要更多深入的討論和對策。不僅僅是技術問題,更是關於倫理和權利。夜影工具的出現,無疑推動著這一議題的討論和發展。
延伸閱讀
- 一年過去了,OpenAI 的聲音複製工具仍未問世!
- 加州新 AI 法案出爐,SB 1047 作者再推出改革措施!
- 《超級瑪利歐成為 AI 基準測試的新標準!你絕對想不到的理由》
- Google 推出 SpeciesNet:專為識別野生動物而設的人工智慧模型!
- 安瑟普提克獲得 35 億美元巨額資金 瞄準人工智慧未來!
- OpenAI 重磅推出 GPT-4.5:歷史上最大的語言模型來了!
- 探索 DeepSeek:你必須理解的 AI 聊天機器人應用全指南!
- OpenAI 計劃將 Sora 影片生成器整合至 ChatGPT,開啟創意新視界!
- OpenAI 的創業帝國:揭密其風投基金背後的諸多創新公司
- 揭開 Mistral AI 的神祕面紗:揭示 OpenAI 競爭者的所有祕密!