Blog

Nightshade:芝加哥大學推出AI反制工具,保護藝術家的作品免受到侵權盜用

Blog Image
Nightshade:芝加哥大學推出AI反制工具,保護藝術家的作品免受到侵權盜用

October 29, 2023

重點摘要:
  1. 芝加哥大學研究人員推出「Nightshade」,這是一款旨在防止AI模型盜用藝術作品的工具,透過微妙地改變圖像中的像素來誤導AI模型。
  2. Nightshade不僅能保護藝術家的作品,還能挑戰生成式AI運作的基本方式,進一步削弱AI生成內容的準確性。
  3. 儘管有濫用的潛在風險,Nightshade的主要目標是將權力平衡從AI公司轉回藝術家那裡,並對依賴竊取或未經授權數據的公司構成重大障礙。



新聞內文:
芝加哥大學研究人員推出「Nightshade」,一款旨在防止AI模型盜用藝術作品的工具。

這款仍處於開發階段的工具允許藝術家透過微妙地改變圖像中的像素,使它們在人眼看來幾乎無法察覺,但對AI模型而言卻令人困惑,以保護自己的作品。

許多藝術家和創作者對未經他們同意,將其作品用於商業AI產品的訓練表示擔憂。

AI模型依賴大量的多媒體數據,包括文字素材和圖像,通常是從網絡路上抓取的,以實現有效運作。Nightshade提供了一種潛在的解決方案,透過破壞這些數據來阻礙它們。

當集成到數位藝術品中時,Nightshade會誤導AI模型,使它們錯誤識別物體和場景。

例如,Nightshade將狗的圖像轉換為對AI模型來說看起來像貓的數據。在僅接觸100個「有毒」樣本後,AI在要求狗時可靠地生成了貓,這顯示了該工具的有效性。

這種技術不僅會使AI模型感到困惑,還會挑戰生成式AI運作的基本方式。透過利用AI模型中相似詞語和思想的聚類,Nightshade可以操縱對特定提示的回應,進一步削弱AI生成內容的準確性。

由計算機科學教授本·趙及其團隊開發的Nightshade是其之前產品「Glaze」的擴展,該產品可對數位藝術進行遮蔽並扭曲像素,使AI模型對藝術風格感到困惑。

儘管承認了Nightshade潛在的濫用可能性,但研究人員的主要目標是將權力平衡從AI公司轉回藝術家那裡,並抑制知識產權的侵犯。

引入Nightshade對AI開發者構成了一個重大挑戰。檢測和刪除帶有「有害」的圖像是一項服複雜的任務,考慮到這些變化的難以察覺性質。

如果將這些圖像集成到現有的AI訓練數據庫中,則需要刪除這些圖像,並可能重新訓練AI模型,對依賴竊取或未經授權數據的公司構成了一個重大障礙。

在研究人員等待同行評審他們的工作之際,Nightshade為希望保護其創意工作的藝術家提供了希望之光。

新聞原址: https://www.artificialintelligence-news.com/2023/10/24/nightshade-poisons-ai-models-fight-copyright-theft/