Blog

歐盟確定全球首個AI管制法律,旨在應對通用AI模型的快速發展

Blog Image
歐盟確定全球首個AI管制法律,旨在應對通用AI模型的快速發展

December 12, 2023

重點摘要:
  1. 歐盟立法者確定了世界首部全面人工智能管制法律,賦予委員會權力調整AI規則手冊,以應對AI技術的快速發展。
  2. 此法律將對「通用」AI模型和系統進行管制,而非使用「基礎」或「前沿」等行業術語,以確保法律具有未來證明性。
  3. 這套法律包括兩個風險等級:「低風險」和「高風險」來管制像OpenAI的ChatGPT這樣的AI工具,並設置了「10^25 FLOPs」的閾值來確定高風險AI。



新聞內文:
歐盟立法者於上週五晚間達成的政治協議,確定了該集團宣布的世界首部全面人工智能管制法律,該法律賦予委員會權力調整歐盟範圍內的AI規則手冊,以跟上這一尖端領域的發展。

為管制當前生成式AI工具熱潮背後最強大的模型,立法者選擇的術語是「通用」AI模型和系統,而不是使用行業選擇的術語,如「基礎」或「前沿」模型。委員會指出,這是為了使即將到來的法律具有未來證明性,並避免使用特定技術(例如基於變換器的機器學習)的分類。

一位委員會官員今天表示:「未來,我們可能會有不同的技術方法。因此,我們尋找一個更通用的術語」。該官員補充說:「基礎模型當然是通用AI模型的一部分。這些是可以用於非常多樣化的任務的模型,它們也可以整合到系統中。給您一個具體的例子,通用AI模型將是GPT-4,而通用AI系統將是ChatGPT,其中GPT-4整合到ChatGPT中」。

正如我們早前報導的那樣,該集團的共同立法者達成的協議包括一個低風險等級和一個高風險等級,用於管制所謂的通用AI(GPAI),例如OpenAI的ChatGPT等生成式AI工具背後的模型。對生成式AI技術應用高風險規則的觸發是由法律中設定的初始閾值決定的。

同樣,正如我們週四報導的那樣,歐盟AI法案草案提到了用於訓練模型的計算量,即浮點運算(或FLOPs)。將GPAI被視為具有「高影響力能力」的標準設為10^25 FLOPs。

在今天與記者的技術簡報中,以審視政治協議,委員會確認這只是一個「初始閾值」,並確認它將通過執行(或委託)法案(即次級立法)隨時間更新閾值。委員會還表示,FLOPs閾值的想法是隨時間與「其他基準」結合,這些基準將由委員會內新成立的專家監督機構「AI辦公室開發」。

為何選擇25 FLOPs作為GPAIs的高風險閾值?委員會表示,這個數字的選擇旨在捕捉當前的前沿模型。然而,委員會聲稱,立法者在達成最終規則手冊的馬拉松會談中,沒有討論甚至沒有考慮它是否

適用於目前運行的任何模型,例如OpenAI的GPT-4或Google的Gemini。

委員會官員補充說,無論如何,GPAI製造商必須自行評估他們的模型是否達到FLOPs閾值,因此,是否屬於具有“系統風險”的GPAIs的規則範圍內。

該官員在新聞簡報會上表示:「沒有官方資料會說ChatGPT或Gemini或中國模型處於這一水平的FLOPs」。「根據我們所擁有的訊息,以及我們選擇的10^25,我們選擇了一個真正可以捕捉一些我們擁有的前沿模型的數字。這是否涵蓋了GPT-4或Gemini或其他模型,我們現在不在此處進行斷言,因為在我們的框架中,公司將不得不來自我評估他們使用的FLOPs量或計算能力。但是,當然,如果您閱讀科學文獻,許多人會指出這些數字是目前最先進的模型。我們將看到公司將如何評估,因為他們最有資格進行這種評估」。

該官員補充說:「這些規則不是以特定公司為考慮而制定的」。「它們確實是以定義閾值的想法來寫的。這個閾值可能會改變,因為我們有權根據技術演進來改變這個閾值。它可能會提高,也可能會下降,我們還可以開發其他在未來將成為基準不同時刻的更合適基準」。

在AI法案的高風險等級下的GPAIs將面臨前瞻式的監管要求,以評估和減輕系統風險 - 這意味著他們必須主動測試模型輸出,以縮小對公共衛生、安全、公共安全、基本權利或對整個社會的實際(或「合理可預見的」)負面影響的風險。

而「低風險」GPAIs只會面臨輕微的透明度要求,包括適用於生成式AI輸出的浮水印要求。

生成式AI產生的文本的浮水印要求包含在原始委員會版本的基於風險的框架中,該框架早在2021年4月就提出,重點關注像AI聊天機器人和深度偽造這樣的技術的透明度要求,但現在也將普遍適用於通用AI系統。

該委員會官員表示:「根據目前可用的最新先進技術,我們有義務嘗試對生成式AI產生的文本加浮水印」。他進一步闡述了協議中同意的浮水印義務的細節。「目前,技術在影片和語音加浮水印方面要比文本加浮水印做得好得多。但我們要求的是,這種浮水印是基於最先進技術進行的。然後我們當然期望,隨著時間的推移,技術將成熟並盡可能地達到最佳狀態」。

GPAI模型製造商還必須承諾遵守歐盟版權規則,包括遵守歐盟版權指令中包含的現有機器可讀文本和數據挖掘選擇退出條款。而該法案對開源GPAIs的透明度要求的豁免並不延伸到將它們從版權義務中解放出來,委員會確認版權指令仍將適用於開源GPAIs。

關於AI辦公室,它將在設定GPAIs風險分類閾值方面發揮關鍵作用,委員會確認該專家機構尚未確定預算或人數。(雖然,週六清晨,歐盟內部市場專員Thierry Breton暗示,歐盟即將迎來「很多」新同事,因為它正在為這個通用AI監督機構做準備。)

在被問及AI辦公室的資源時,一位委員會官員表示,這將由歐盟執行機構在未來作出「適當和正式的決定」。他們補充說:「我們的想法是為辦公室創造一條專用的預算線,我們也將能夠從成員國招募國家專家,如果我們希望的話,還有合同代理和永久員工。其中一些員工還將部署在歐洲委員會內部」。

AI辦公室將與法律還將建立的新科學顧問小組一起工作,以幫助該機構更好地理解先進AI模型的能力,以管制系統風險。該官員指出:「我們已經確定了一個由科學小組設立的重要角色,科學小組可以有效地幫助人工智慧辦公室理解是否存在尚未識別的新風險」。「例如,還會對那些未被FLOP閾值捕捉的模型發出一些警報,這些模型可能因某些原因實際上會引發政府應該關注的重要風險」。

雖然歐盟執行機構似乎急於確保即將到來的法律的關鍵細節得到發布,儘管還沒有最終文本(因為下一步的任務是在未來幾週內合併共同立法者在週五晚上結束的馬拉松式38小時談判中達成的協議)但細節中仍可能潛藏一些魔鬼。因此,值得仔細審查可能在1月或2月出現的文本。

此外,儘管完整的法規還需要幾年時間才能運行,但歐盟將推動GPAIs在此期間遵守行為準則。因此,AI龍頭將面臨壓力,通過該集團的AI協定儘可能接近即將到來的嚴格法規。

歐盟AI法案本身可能要到2026年某個時候才會全面生效,鑑於最終文本一旦編制(並翻譯成成員國語言)後,必須經過議會和理事會的最終投票確認,此後還有一段短暫的時間,才能在歐盟官方期刊上公布法律文本,然後再生效。

歐盟立法者還同意了法案合規要求的分階段方法,允許在GPAIs適用高風險規則前24個月。

嚴格禁止的AI使用案例清單將更早適用,即法律生效後的六個月內。這可能意味著在2024年下半年開始運行某些「不可接受風險」的AI使用禁令,例如社會評分或Clearview AI風格的自拍照片掃描用於面部識別數據庫,假設在理事會或議會內沒有最後一刻反對該法規的情況下。
新聞原址: https://techcrunch.com/2023/12/11/eu-ai-act-gpai-rules-evolve/