Blog

碎片化真相:AI如何扭曲並挑戰我們的現實世界

Blog Image
碎片化真相:AI如何扭曲並挑戰我們的現實世界

July 31, 2023

當OpenAI首次推出ChatGPT時,它在我看來就像一個神諭。經過大量資料的訓練,這個統計預測機器鬆散地代表了線上可用的人類興趣和知識的總和,我曾想,它可能成為真理的唯一來源。自從沃爾特·克朗凱特(Walter Cronkite)每晚告訴美國公眾:“事情就是這樣”——並且大多數人相信他之後,我們社會就沒有這樣的事了。

在一個極化、誤傳和真相與社會信任侵蝕的時代,一個可靠的真理來源將是多麼有益。不幸的是,這一前景很快就被這項技術的弱點所打破,首先是它容易產生幻覺答案的傾向。很快就變得清楚,儘管輸出看起來令人印象深刻,但它們所生成的資訊僅基於它們訓練時的數據模式,而不是任何客觀的真理。

AI的監管到位,但並非人人認同
不僅如此,隨著Microsoft、Google、騰訊、百度、Snap、SK Telecom、阿里巴巴、Databricks、Anthropic、Stability Labs、Meta等其他公司的眾多聊天機器人相繼問世,出現了更多問題。記得Sydney嗎?更重要的是,這些各種聊天機器人對同一提示給出了截然不同的結果。差異取決於模型、訓練數據以及模型所提供的任何監管措施。



這些監管措施旨在防止這些系統延續訓練數據中固有的偏見,生成假資訊、仇恨言論和其他有毒材料。然而,ChatGPT推出後不久,很明顯並非每個人都贊同OpenAI所提供的監管措施。

例如,保守派抱怨機器人的答案暴露了明顯的自由派偏見。這促使伊隆·馬斯克宣布他將建造一個比ChatGPT更少限制和政治正確的聊天機器人。隨著他最近宣布的xAI,他很可能會做到這一點。

Anthropic、Meta的方法
Anthropic採取了有些不同的方法。他們為自己的Claude(現在的Claude 2)聊天機器人實施了一個“憲法”。正如VentureBeat報導的那樣,該憲法概述了Claude在與用戶互動時必須遵循的一系列價值觀和原則,包括有益、無害和誠實。根據公司的博客文章,Claude的憲法包括了來自聯合國人權宣言的理念,以及為捕捉非西方觀點而包括的其他原則。也許每個人都能同意這些。

Meta最近還推出了他們的LLaMA 2大型語言模型(LLM)。除了顯然是一個有能力的模型外,它還以開源提供,這意味著任何人都可以免費下載並用於自己的目的。有其他一些可用的開源生成AI模型,幾乎沒有監管限制。使用其中一個模型使監管和憲法的觀念顯得有些古色古香。

碎裂的真相,分裂的社會
雖然消除大型語言模型(LLMs)潛在危害的所有努力或許都是徒勞。根據《紐約時報》的報導,一項新的研究揭示了一種能有效突破這些模型護欄的提示技巧,無論是閉源還是開源。《財富》報導稱,這種方法對Vicuna(一個基於Meta原始LlaMA建立的開源聊天機器人)幾乎有100%的成功率。

這意味著任何想要獲得如何製造生物武器或欺詐消費者的詳細指導都能夠從各種LLMs中獲取。雖然開發人員可以反制其中一些嘗試,但研究人員表示,沒有已知的方式可以阻止所有這種攻擊。

除了這項研究的明顯安全隱患外,即使在回應相同提示時,多個模型也呈現出越來越雜亂的不同結果。一個碎片化的AI宇宙,就像我們碎片化的社交媒體和新聞宇宙一樣,對真相和信任有害。我們正面臨一個充斥著聊天機器人的未來,將增加噪音和混亂。真相和社會的碎片化不僅對基於文字的資訊有深遠的影響,而且對快速演變的數位人類世界也有影響。


AI:數位人類的崛起
今天基於LLMs的聊天機器人以文字共享資訊。隨著這些模型越來越多模態化——意味著它們可以生成圖像、影片和音頻——它們的應用和效能只會增加。

多模態應用的一個可能用例可以在“數位人類”中看到,這些都是完全合成的創造物。最近的哈佛商業評論故事描述了使數位人類成為可能的技術:“電腦圖形的迅速進展,再加上人工智慧(AI)的先進技術,現在正讓聊天機器人和其他基於電腦的界面具有逼真的人臉。”它們具有能夠精確複製真實人類外觀的高端特徵。

根據D系列初創公司ZEGOCLOUD的聯合創始人Kuk Jiang,數位人類是“高度詳細和逼真的人類模型,可以克服逼真和精緻的局限。”他補充說,這些數位人類可以與真實人類以自然而直觀的方式互動,“可以有效協助和支持虛擬客戶服務、醫療保健和遠程教育場景。”

數位人類新聞主播
另一個新興的用例是新聞主播。早期實施已經在進行中。科威特新聞已經開始使用名為“Fedha”的數位人類新聞主播,這是一個流行的科威特名字。她自我介紹:“我是Fedha。你喜歡什麼樣的新聞?讓我們聽聽你的意見。”

通過提問,Fedha引入了根據個人興趣定制新聞源的可能性。中國人民日報也在類似地嘗試使用AI供電的新聞主播。

目前,初創公司Channel 1正在計劃使用gen AI創建一個新型影片新聞頻道,正如《好萊塢報告》所描述的那樣,就像AI生成的CNN一樣。據報導,Channel 1將於今年推出,每週一次30分鐘的節目,劇本是使用LLMs開發的。他們的雄心壯志是為每個用戶定制新聞播報。文章指出:“甚至有自由派和保守派主持人可以通過更具體的觀點篩選新聞。”

你能分辨出區別嗎?
Channel 1的聯合創始人Scott Zabielski承認,目前,數位人類新聞主播並不像真實人類那樣出現。他補充說,這項技術可能需要一段時間,或許長達3年才能無縫接軌。他說:“它將達到一個地步,你絕對無法分辨觀看AI和觀看人類之間的區別。”

這可能令人擔憂嗎?
去年科學美國人雜誌報導的一項研究發現,“合成面孔不僅逼真,而且比真實面孔更值得信賴,”根據研究的共同作者、加利福尼亞大學伯克利分校的教授Hany Farid的說法,“這一結果引發了‘這些面孔在用於邪惡目的時可能非常有效’的擔憂。”

沒有任何證據表明Channel 1將使用個性化新聞影片和合成面孔的說服力來達到邪惡的目的。也就是說,技術正在推進到不太謹慎的人可能這樣做的地步。

作為一個社會,我們已經擔心我們閱讀的可能是假資訊,我們在電話中聽到的可能是複製的聲音,我們看的照片可能是偽造的。很快,甚至那些聲稱是晚間新聞的影片也可能包含的資訊不是為了通知或教育,而是更有效地操縱意見。

真相和信任受到攻擊已經有一段時間了,這一發展表明這一趨勢將繼續。我們距離沃爾特·克朗凱特(Walter Cronkite)的晚間新聞還有很長的路要走。

新聞原址: https://venturebeat.com/ai/fragmented-truth-how-ai-is-distorting-and-challenging-our-reality/