Blog

AI製造的假裸體圖像:隱私侵犯和網路傷害事件的增加

Blog Image
AI製造的假裸體圖像:隱私侵犯和網路傷害事件的增加

December 9, 2023

重點摘要:
  1. AI應用程式,能夠從穿著整齊的照片生成假裸體圖像,正見證其使用者數量增加,其中一組34個網站吸引了超過2400萬獨立訪問者。
  2. 這些「脫光」網站和應用程式的推薦鏈結垃圾郵件數量在社群媒體平台上上升了2000%以上,並有53個Telegram群組用於使用這些服務,涉及至少100萬用戶。
  3. 這些應用程式通常在未經被攝者同意的情況下被創造,已經導致多起網路傷害事件,包括創造和傳播未經同意的裸體圖像、針對性騷擾活動、色情勒索以及兒童性虐待素材的生成。



新聞內文:
AI應用程式,可以在照片中「脫光」女性,正見證其使用者數量增加的情況,數據顯示。

這些「脫光」網站和應用程式允許使用者上傳某人穿著整齊的照片。然後使用AI生成他們的假裸體圖像。

社群媒體分析公司Graphika在其12月報告《揭示的圖像》中表示,一組34個網站吸引了超過2400萬獨立訪問者。該報告引用了流量分析網站「Similarweb」的數據。

該報告還指出,自今年年初以來,這些網站和應用程式的推薦鏈結垃圾郵件數量在包括X和Reddit在內的平台上上升了2000%以上。

報告還指出,有53個Telegram群組用於使用這些服務,至少有100萬用戶。

報告的研究人員表示:「我們評估這些服務的日益突出和易於訪問很可能導致更多的網路傷害事件,例如創造和傳播未經同意的裸體圖像、針對性騷擾活動、色情勒索以及兒童性虐待素材的生成」。

可以創造深偽全裸圖像的應用程式,這是通過數位方式修改圖像,使一個人在照片中看起來裸體,而這些應用程式已經存在了幾年。它們通常在未經被攝者同意的情況下被創造,以前曾經針對名人和網路名人攻擊。

今年二月,Twitch實況主QTCinderella成為深偽造色情影片的受害者,該影片在網路上傳播。影片的截圖在線上分享的隔天,該實況主在一個X的貼文中表示:「自從看到那些照片以來,我經歷了許多身體畸形感」。

她補充說:「這不是『只是』被侵犯那麼簡單。這遠不止如此」。

今年九月,超過20名女孩的偽造假裸體照在西班牙幾所學校流傳。據西班牙的El País報導,這些照片是由一個AI應用程式處理的。

新聞原址: https://www.businessinsider.com/ai-apps-fake-nude-images-undress-women-photos-2023-12