Blog

AI生成的「深偽」影像成兒童虐待新工具:全球爭議監管面臨挑戰

Blog Image
AI生成的「深偽」影像成兒童虐待新工具:全球爭議監管面臨挑戰

April 23, 2024

重點摘要:

  1. 兒童虐待者利用AI生成「深偽」影像進行性敲詐,開啟可能多年的虐待循環。
  2. 英國政黨希望禁止明確AI生成真人影像,但全球監管缺乏共識,技術困難重重。
  3. 數據庫「Laion」中可能存在數百至數千例兒童性虐待材料,AI影像生成器受訓於此,增加擔憂與挑戰。



新聞內文:

兒童虐待者正在利用AI生成的「深偽」影像對其目標進行敲詐,要求他們拍攝自己的虐待行為,開啟一個可能持續多年的性敲詐循環。

在英國,製造模擬兒童虐待影像是違法的,工黨和保守黨都希望禁止所有明確的AI生成真人影像。

但全球對於如何監管這項技術尚缺乏共識。更糟糕的是,無論政府採取多麼強硬的行動,製造更多影像永遠只是按一個按鈕的事。明確的影像已經內建於AI 影像生成的基礎之中。

在十二月,斯坦福大學的研究人員做出了令人不安的發現:埋藏在AI影像生成器最大的訓練集之一中的數十億張影像中,可能有數百甚至數千例兒童性虐待材料(CSAM)。

可能還有更多。這個名為「Laion」(大規模AI開放網路)的數據庫約含有約 50億張影像。以每半秒一張的速度,你或許可以在一生中看完它們(假如你年輕、健康且能夠不需要睡眠)。因此,研究人員必須自動掃描數據庫,將可疑的影像與執法機構保存的記錄相匹配,並教導系統尋找類似的照片,然後將它們直接交給當局進行審查。

作為回應,Laion的建立者停止了數據庫的下載。他們指出,他們從未實際分發過有問題的影像,因為該數據庫在技術上只是一個長長的URL列表,指向其他地方在網路上的照片。事實上,到斯坦福研究人員進行研究時,幾乎有三分之一的連結已經失效;其中有多少曾包含CSAM是難以判斷的。

但傷害已經造成。使用Laion-5B,特定數據庫的系統在世界各地都在定期使用,非法的訓練數據已經深深烙印在它們的神經網絡中。AI影像生成器可以創作明確的成人和兒童內容,因為它們已經看過。

AI-generated images of women created as social media influencers by an advertising agency in Barcelona. Photograph: Pau Barrena/AFP/Getty Images

Laion可能不是唯一的數據庫。這個數據庫被製作成為一個「開放源碼」產品,由志願者組成並釋放到網路上,以支持獨立的AI研究。這意味著它被廣泛用於訓練開源模型,包括Stable Diffusion,作為2022年的突破性發布之一,它推動了人工智慧革命的開端。但這也意味著整個數據庫是公開可用的,任何人都可以探索和檢查。

對於Laion的競爭者來說情況並不相同。例如,OpenAI只為其Dall-E 3系統提供了一個「模型卡片」,其中指出其圖片是「來自於公開可用和授權的來源」。

該公司表示:「我們已經努力從Dall-E 3模型的訓練數據中過濾出最明顯的內容」。這些努力是否奏效必須取決於信任。

保證一個完全乾淨的數據庫是非常困難的,這也是像OpenAI這樣的組織在首次提出此類限制的原因之一。與Stable Diffusion不同,無法下載Dall-E 3來在自己的硬體上運行。相反地,每個請求都必須透過該公司自己的系統發送。對於大多數使用者,增加了一層ChatGPT位於中間,即時重寫請求,以提供更多細節給影像生成器使用。

這意味著OpenAI和Google等採取類似方法的競爭對手有額外的工具來保持其生成器的清晰度:限制可以發送的請求,並在將生成的圖像發送給最終使用者之前進行過濾。人工智慧安全專家表示,這是一種比依靠訓練過程中從未創作過此類圖像的系統更不脆弱的方法。

對於「基礎模型」,也就是 AI 革命中最強大、最不受限制的產品,甚至不清楚一個完全乾淨的訓練數據庫是否有用。例如,從未看過明確圖像的AI模型可能無法在現實世界中識別它,或者遵從有關如何向當局報告的指示。

Labour Together的技術政策主任Kirsty Innes說:「我們需要為開源AI開發保留空間」。「這可能是解決未來危害的最佳工具所在」。

在短期內,提議的禁令重點主要是專門工具。Innes共同撰寫的一份政策文件建議只針對單一用途的「裸體化」工具的創建者和主機採取行動。但在長遠來看,對抗明確的AI影像的戰鬥將面臨與該領域其他困難類似的問題:如何限制一個我們不完全了解的系統?

新聞原址: https://www.theguardian.com/technology/2024/apr/23/can-ai-image-generators-be-policed-to-prevent-explicit-deepfakes-of-children