Blog

人們對AI滅絕人類的恐懼是科幻影響,這遠離現實

Blog Image
人們對AI滅絕人類的恐懼是科幻影響,這遠離現實

October 21, 2023

重點摘要:
  1. Yann LeCun指出,人們對超智慧型AI構成威脅的恐懼主要來自科幻電影,如《魔鬼終結者》,而非基於實際情況。
  2. LeCun認為,目前對AI可能構成滅絕風險的擔憂是過度誇大的。他強調,現有的AI模型還遠未達到人工通用智慧(AGI)的水平。
  3. LeCun提到,要達到人類水平的智慧還需要數個概念性突破。即使達到了,這些AI系統也可以被編碼具有「道德特性」,以防止它們失控。

新聞內文
Yann LeCun告訴《金融時報》(Financial Times)說,人們受到了科幻電影,如《終結者》等影片的影響,大家認為「超智慧型人工智慧」對人類將構成威脅,但實際上,沒有理由讓智慧機器試圖與人類競爭。

他說「智慧與掌控慾望無關。這對人類來說也不成立」。

他補充說:「如果最聰明的人想支配其他人是真的,那麼愛因斯坦和其他科學家,他們既擁有財富又擁有權力,但事實並非如此」。

過去一年,生成式人工智慧工具(如ChatGPT)的迅速擴展引發了人們對「超智慧型人工智慧」潛在未來風險的擔憂。

今年5月,「OpenAI」的CEO Sam Altman、「DeepMind」的CEO Demis Hassabis和「Anthropic」的CEO Dario Amodei都簽署了一份公開聲明,警告說人工智慧未來可能對人類造成與核戰爭媲美的「滅絕」風險。

而當前的模型距離這一假設的「人工通用智慧」(AGI)有多接近,目前存在激烈的辯論。微軟在早前進行的一項研究指出,OpenAI的「GPT-4」模型在處理類似人類方式的推理問題時展現出了「AGI的火花」。


然而,LeCun告訴《金融時報》許多人工智慧公司一直都對當前的生成模型距離AGI有著「一直過於樂觀」的看法,因此對人工智慧滅絕的擔憂是過度誇大的。

他說:「它們(模型)根本不了解世界運作的方式。它們不能規劃、它們不能進行真正的推理」。

他補充說:「在我們擁有一個能夠在學習能力方面甚至與貓相匹敵的系統設計之前,對滅絕風險的辯論都還言之過早,而我們目前也還沒有這樣的系統」。

LeCun表示,達到人類水平的智慧需要「幾個概念性的突破」,並建議即使當它們達到那個水平時,人工智慧系統可能也不會構成威脅,因為它們可以被編碼為具有「道德特性」,可以防止它們變得失控。

新聞原址: https://www.businessinsider.com/superintelligent-ai-will-not-destroy-humanity-meta-ai-scientist-2023-10