Blog

比爾蓋茲解釋,為什麼我們不需要害怕 AI 人工智慧

Blog Image
比爾蓋茲解釋,為什麼我們不需要害怕 AI 人工智慧

July 19, 2023

重點摘要:

- 微軟共同創辦人比爾蓋茲認為,類似於ChatGPT的AI模型是自個人電腦以來最重要的技術進步。
- 他認為,這種技術的出現可能導致深度偽造、算法偏見和學校作弊等問題。
- 蓋茲建議,該技術需要的規範就像是"速度限制和安全範圍"。



微軟共同創辦人比爾蓋茲對人工智慧的潛力充滿信心,他時常重申,他認為類似於ChatGPT核心的模型是自個人電腦以來技術最重要的進步。

他表示,這種技術的出現可能導致深度偽造、算法偏見和學校作弊等問題,但他預測,這種技術所引發的問題是可以解決的。

“從迄今為止關於AI風險所寫的所有東西中,有一點非常清楚——沒有人有非常明確的答案,”蓋茲在本週的一篇部落格文章中寫道。“另一件我明確知道的事情是,AI的未來並非如某些人想的那樣悲觀,或者如其他人想的那樣樂觀。”

蓋茲對AI風險的中間路線觀點,可能會將該技術的討論,從末日情境轉向對當前風險的更有限的規範,就在全球各地的政府正努力搞清楚如何規範該技術及其可能的風險。例如,週二,參議員接到一份關於AI和軍事的機密簡報。

蓋茲的觀點,是人工智慧及其規範最重要的聲音之一。他與微軟的聯繫依然非常密切,微軟投資了OpenAI,並將其ChatGPT集成到其核心產品,包括Office中。

在部落格文章中,蓋茲引用了社會如何應對先前的進步,來說明人類已經適應了過去的重大變革,他們也將適應AI。

“例如,這將對教育產生巨大影響,但幾十年前的便攜式計算器以及最近在教室中使用電腦也是如此,”蓋茲寫道。

蓋茲建議,該技術需要的規範就是"速度限制和安全範圍"。

“汽車剛上路不久,就發生了第一次車禍。但我們並沒有禁止汽車——我們採取了速度限制、安全標準、牌照要求、酒後駕車法律和其他道路規則,”蓋茲寫道。

蓋茲擔心一些因採用該技術而產生的挑戰,包括它如何改變人們的工作,以及“幻覺”,即像ChatGPT這樣的模型創造事實、文件和人的傾向。

例如,他引用了深度偽造的問題,這種技術使用AI模型讓人們可以輕鬆製作假影片來模仿他人,可能用來騙人或操縱選舉,他寫道。

但他也懷疑,人們會變得更擅長於識別深度偽造,並引用了由英特爾和DARPA(一個政府資金提供者)開發的深度偽造檢測器。他提議制定能明確劃定哪種深度偽造是合法製作的規範。

他還擔心AI生成的程式碼尋找破解電腦所需的軟體漏洞的能力,並建議建立一個以國際原子能機構為模型的全球監管機構。


新聞原址: https://www.cnbc.com/2023/07/12/bill-gates-explains-why-we-shouldnt-be-afraid-of-ai.html?recirc=taboolainternal