Blog

歐盟要求科技龍頭披露生成式人工智慧風險,提升選舉安全措施

Blog Image
歐盟要求科技龍頭披露生成式人工智慧風險,提升選舉安全措施

March 15, 2024

重點摘要:

  1. 歐盟向Google、Meta、Microsoft等發送資訊請求,要求披露處理生成式人工智慧風險的細節。
  2. 這些要求是基於《數位服務法》,指定了八個非常大型線上平台需要評估和減輕系統性風險。
  3. 委員會將進行一系列壓力測試,以測試平台應對生成式人工智慧風險的準備情況。



新聞內文:

歐洲委員會向Google、Meta、Microsoft、Snap、TikTok和X發送了一系列有關處理生成式人工智慧使用風險的正式資訊請求(RFI)。

這些請求涉及Bing、Facebook、Google Search、Instagram、Snapchat、TikTok、YouTube和X,是根據《數位服務法》(DSA),該法是該區塊鏈重啟的電子商務和線上治理規則。根據這項法規,這八個平台被指定為非常大型線上平台(VLOP),意味著它們需要評估和減輕系統性風險,並遵守該法規的其他部分。

在一份週四的新聞稿中,委員會表示,他們要求這些公司提供有關它們在服務中處理與生成式人工智慧相關風險的更多資訊,包括所謂的「幻覺」,即AI技術生成偽造資訊;深偽技術的病毒傳播、以及可能誤導選民的服務自動操縱。

委員會補充說:「委員會還要求有關生成式人工智慧對選舉過程、非法內容的傳播、基本權利的保護、基於性別的暴力、未成年人的保護和心理健康影響的風險評估和減輕措施的資訊和內部文件」。委員會強調,這些問題涉及「生成式人工智慧內容的傳播和建立」。

根據委員會與記者的簡報,歐盟還計劃在復活節後進行一系列壓力測試。這些測試將測試平台應對生成式人工智慧風險的準備情況,例如在6月歐洲議會選舉前可能出現的大量政治深偽技術。

一位不具名的高級委員會官員表示:「我們希望推動這些平台告訴我們,他們為盡可能做好準備而採取的一切措施。針對我們可能能夠檢測到並且我們將不得不在選舉前對其作出反應的所有事件」。

歐盟在執行這些針對大型科技公司特定DSA規則的VLOP的監控方面,將選舉安全列為優先領域之一。最近,歐盟一直在就VLOP的選舉安全規則進行諮詢,並致力於制定正式指導方針。

今天的請求部分是為了支持該指導方針,根據委員會的說法。雖然這些平台已被要求在4月3日前提供與選舉保護有關的資訊,這被標記為「緊急」請求。但歐盟表示,希望能在那之前(即3/27前)完成選舉安全指南的制定。

委員會指出,合成內容的生產成本正在急劇下降,增加了在選舉期間傳播誤導性深偽技術的風險。這就是為什麼歐盟將注意力轉向具有廣泛傳播政治深偽技術能力的主要平台。

上個月慕尼黑安全會議提出的一項科技行業協議,目的在打擊選舉期間對AI的欺騙性使用,得到了一些被委員會現在正在發送RFI的同一平台的支持,但在歐盟看來這還不夠。

一名委員會官員表示,其即將推出的選舉安全指導將「更進一步」,指出該指導將利用三重防護措施:首先是DSA的「明確盡職審查規則」,該規則賦予了針對特定「風險情況」的權力;再加上與平台合作超過五年的經驗,透過《反假訊息行動守則》(非法律約束力)的途徑,歐盟打算將其納入DSA的行為守則;以及在即將出台的AI法案下的透明度標籤/AI模型標記規則。

委員會官員補充說,歐盟的目標是建立「執行結構生態系統」,以便在選舉前可以利用。

委員會今天的RFI還旨在解決比選民操縱更廣泛範圍的生成式人工智慧風險,例如與深偽色情或其他類型的惡意合成內容生成相關的危害,無論生成的內容是圖像或影片、音訊。這些請求反映了歐盟對VLOP的DSA執行中其他重點領域的關注,其中包括與非法內容(如仇恨言論)和兒童保護有關的風險。

這些平台已被要求在4/24前回應這些其他生成式人工智慧RFI。

那些可能分發誤導、惡意或其他有害深偽技術的較小平台,以及可以以較低成本生成合成媒體的較小AI工具製造商,也在歐盟的風險減輕雷達上。

這些平台和工具不會落入委員會對VLOP的明確DSA監控範圍,因為它們並未被指定。但其擴大規範影響的策略是通過間接施加壓力,透過較大的平台(在這個背景下可能作為放大器或分發渠道);以及透過自我監管機制,例如上述《假訊息行動守則》;以及AI協議,一旦通過(硬性法律)AI法案,它將啟動約束。

新聞原址: https://techcrunch.com/2024/03/14/eu-dsa-genai-rfis/