Blog

Google,Microsoft,OpenAI以及新創公司組成機構,以規範AI的開發

Blog Image
Google,Microsoft,OpenAI以及新創公司組成機構,以規範AI的開發

July 28, 2023

在人工智慧領域最具影響力的四家公司宣布,將組成一個行業組織來監督最先進模型的安全開發。

由ChatGPT開發者OpenAI、Anthropic、Microsoft以及擁有英國DeepMind的Google組成的「前沿模型論壇」(Frontier Model Forum)已成立。



該組織表示,將專注於"安全且負責任"的開發前沿AI模型,指的是目前可用的例子之外更為先進的AI技術。

"創建AI技術的公司有責任確保它的安全性,並始終在人類控制之下。" Microsoft的總裁Brad Smith說。" 這項計劃是將科技行業聚集在一起推進AI負責任發展,並解決挑戰的重要一步,使之惠及全人類。"

該論壇的成員表示,他們的主要目標是推廣AI安全研究,例如開發評估模型的標準;鼓勵負責任地部署先進AI模型;與政治家和學者討論AI的信任和安全風險;以及幫助開發對抗氣候危機和偵測癌症等正面用途的AI。

他們補充說,該組織的會員資格開放給開發前沿模型的組織,前沿模型被定義為“超越當前最先進現有模型的大規模機器學習模型,並可以執行各種各樣的任務”。

此公告的宣布正值技術規範的動作正在加速。上週五,科技公司-包括前沿模型論壇的創始成員-在與美國總統拜登的白宮會議後,同意新的AI保護措施。會議的承諾包括在AI內容上加入浮水印,使其更容易識別出如深度偽造等誤導性資料,並允許獨立專家測試AI模型。

白宮的這項公告受到了一些反對者的懷疑,他們說科技行業有自我規範的承諾失敗的歷史。上週,Meta宣布將AI模型發布給公眾,一位專家描述這就像“給人們提供了一個製造核彈的模板”。

論壇公告提到,包括英國政府在內的各方面正在對AI安全做出“重要貢獻”,該政府召集了一個全球AI安全峰會,並且歐盟正在推出一項AI法案,這是最嚴肅的嘗試來規範該技術的立法。

位於薩里大學的以人為中心的AI研究所的安德魯·羅戈斯基博士說,人工智慧的監管不能陷入“監管俘虜”,即公司的憂慮主導監管過程。

他補充說:“我非常擔心政府已經將AI的領導權讓給了私營部門,可能是無法挽回的。這是一種強大的技術,具有巨大的善與惡的潛力,需要獨立的監管,將代表在未來將受AI影響的人民、經濟和社會。”


新聞原址: Google, Microsoft, OpenAI and startup form body to regulate AI development | Artificial intelligence (AI) | The Guardian