Blog

AI人工智慧將如何重新塑造商業規則

Blog Image
AI人工智慧將如何重新塑造商業規則

July 10, 2023

過去幾週,全球對於AI風險和規範的討論出現了多個重大的發展。從美國國會對OpenAI的聽證會以及歐盟公告修訂的AI法案中,顯現出的主題是對更多規範的呼籲。

然而,令人驚訝的是,政府、研究人員以及AI開發人員在這種規範需要上的共識。在國會的證詞中,OpenAI的CEO Sam Altman建議成立一個新的政府機構,負責發放開發大規模AI模型的許可證。

他給出了幾個建議,該機構如何規範這個行業,包括"結合許可和測試要求",並表示像OpenAI這樣的公司應該接受獨立的審核。

然而,雖然對風險的認識日益增長,包括對人們工作和隱私可能產生的影響,但在這樣的規範應該是什麼樣子或者潛在審核應該關注什麼方面,仍然沒有達成太多共識。在由世界經濟論壇舉辦的首屆生成性AI峰會上,商業、政府和研究機構的AI領導者們聚集在一起,為如何處理這些新的道德和法規考慮而達成共識,兩個主要主題浮出了水面:

我們需要負責任且可以追究的AI審核

首先,我們需要更新對開發和部署AI模型的企業的要求。當我們質疑"負責任的創新"實際上是什麼意思的時候,這點特別重要。英國一直在引領這個討論,其政府最近通過五項核心原則提供了AI的指導,包括安全性、透明度和公平性。牛津最近的研究也強調,“像ChatGPT這樣的LLM模型引起了我們對責任概念更新的迫切需求”。

推動這種新責任的核心驅動力是越來越難理解和審核新一代的AI模型。要考慮這種演變,我們可以將"傳統"AI與LLM AI或大型語言模型AI相對比,以推薦求職者為例。

如果傳統的AI在數據中識別出某種種族或性別的員工在更高級別的工作中,它可能會通過推薦相同種族或性別的人來創造偏見。幸運的是,這是一種情況,我們可以通過檢查用於訓練這些AI模型的數據,以及輸出的推薦來發現或審核的。

對於新的LLM驅動的AI,這種偏見審核變得越來越困難,如果不是有時根本無法測試偏見和質量。我們不只是不知道"封閉的"LLM是在什麼數據上訓練的,而且對話式的推薦可能會引入更主觀的偏見或"幻覺"。

例如,如果你要求ChatGPT總結一位總統候選人的演說,誰能判斷它是否是一個有偏見的總結?

因此,對於包含AI推薦的產品,考慮新的責任,比如推薦的可追蹤性,以確保用於推薦的模型實際上可以被偏見審核,而不僅僅是使用LLMs,變得比以往任何時候都更加重要。

這個界限,什麼算作一個推薦或者一個決定,對於人力資源方面的新AI法規至關重要。例如,新的紐約市的AEDT法律正在推動對那些涉及到就業決定的技術的偏見審核,比如可以自動決定誰被僱用的技術。

然而,法規景觀正在迅速地演變,不僅僅是AI如何做出決定,也包括如何建立和使用AI。

向消費者表明AI標準的透明度

這引出了第二個主要主題:政府需要為AI技術的構建方式定義更清晰、更廣泛的標準,並且如何讓這些標準對消費者和員工明確。

在最近的OpenAI聽證會上,IBM的首席隱私和信任官Christina Montgomery強調,我們需要標準來確保每次消費者與聊天機器人互動時,他們都能得到通知。這種關於如何開發AI以及惡意行為者使用開源模型風險的透明度,是最近歐盟AI法案考慮禁止LLM API和開源模型的關鍵。

關於如何控制新模型和技術的擴散,需要進一步的辯論,直到風險和利益之間的權衡變得更加明確。但是,變得越來越明確的是,隨著AI的影響在加速,對標準和法規的迫切性,以及對風險和機會的認識也在加速。

對於人力資源團隊和商業領導者,AI規範的影響

AI的影響可能最快被人力資源團隊感受到,他們被要求既要處理新的壓力,為員工提供提升技能的機會,也要為他們的執行團隊提供調整的預測和勞動力計劃,關於將需要適應他們的業務策略的新技能。

在最近的兩次世界經濟論壇的生成性AI和未來工作峰會上,我與AI和HR的領導者、政策制定者和學者進行了交談,達成一個共識:所有的企業都需要推動負責任的AI採納和意識。世界經濟論壇剛剛發表了它的"未來工作報告",該報告強調,在未來五年內,預計有23%的工作會改變,創造出6900萬個工作,但是會消除8300萬個工作。這意味著至少有1400萬人的工作處於風險中。

報告還強調,不僅有六成的工人需要改變他們的技能組合以完成他們的工作——他們將需要提升技能和重新學習——在2027年之前,只有一半的員工被認為

有足夠的培訓機會。

那麼,團隊該如何讓員工在AI加速轉型中保持參與感呢?通過推動內部轉型,專注於員工,並仔細考慮如何創造一個合規且連接的人員和技術體驗,讓員工對自己的職業生涯有更好的透明度,並提供發展自己的工具。

新的法規浪潮正在為如何考慮人才決策中的偏見——然而,由於這些技術被工作中和工作以外的人們所採用,商業和人力資源領導者理解技術和法規環境,並推動他們的團隊和業務中的負責任AI策略的責任比以往任何時候都更大。