Blog

人工智慧的繁榮期已經結束了嗎?

Blog Image
人工智慧的繁榮期已經結束了嗎?

August 22, 2023

才僅僅過去幾個月,人們對生成式AI的興趣正逐漸退散。

Sara Morrison是Vox的高級記者,自2019年以來,負責報導數據隱私、反壟斷以及大型科技公司對我們所有人的影響。



去年生成式人工智慧產品開始面向大眾推出時,引發了一陣興奮和恐懼的狂熱。

人們對這些工具能夠從單一的文字提示中創建出令人驚嘆的圖像和文字感到驚奇。矽谷對於這種具有轉型性新技術的前景感到垂涎三尺,經過多年的停滯和加密貨幣以及虛擬現實的失敗後,人工智慧這項技術可以為其帶來豐厚的利潤。同時,人們也擔心在人工智慧改變世界後會出現什麼情況。數百萬個工作可能會消失,實作或電腦生成的內容可能難以區分。如果想要更誇張點說,甚至可能靠近人類的終結。我們對這項技術的潛力既尊敬又畏懼。

幾個月後,像是玫瑰般美好的人工智慧開始凋落。各國政府正加大力度監管這項人工智慧技術,創作者因涉嫌侵犯知識產權和版權而提起訴訟,人們對這些產品可能帶來的隱私權侵犯(無論是實際上還是感知上)感到反感,同時,有許多面向開始質疑AI驅動的聊天機器人其準確性以及人們應該多大程度上依賴它們。

假設他們仍在使用這些產品。最近的報導顯示,消費者開始失去興趣:新的AI系統Bing搜索對谷歌的市場份額毫無影響,ChatGPT首次失去了用戶,這些機器人仍然容易出現基本的錯誤,使它們難以被信任。在某些情況下,它們甚至可能比以前更不準確。這項技巧的風潮是否結束了呢?

生成式人工智慧是一項強大的技術,短期內不會消失,而基於這項新技術建立的聊天機器人對消費者來說最易於接觸的工具之一,他們可以直接詢問並親自嘗試。但最近的報導顯示,隨著最初人們的興奮和好奇心消退,對聊天機器人的熱情可能不如當初預期那麼高。

OpenAI及其ChatGPT聊天機器人迅速成為當下最受矚目的生成式人工智慧公司和工具,毫無疑問,這在很大程度上得益於該公司是最早向大眾推出人工智慧工具的公司之一,以及與價值數十億美元的微軟為合作夥伴關係。這種合作伙伴關係導致微軟在二月份發佈了一個重大公告,該公司宣布將OpenAI的大型語言模型(LLM)建立的自定義聊天機器人(這也是ChatGPT的動力來源)整合到其網頁搜索引擎Bing中。微軟將生成式AI融入搜索,視為網頁搜索的未來不再只是返回一堆連結或知識窗口,這款新的AI聊天機器人將從多個網站中整合訊息,形成一個回應。

這引起了許多話題,Bing突然間從一個只被當作笑話的話題,變成了一個在由Google完全主導的市場中的潛在競爭對手,以至於這兩者幾乎成了同義詞。Google趕緊推出了自家的聊天機器人,名為Bard。Met也不甘示弱,可能仍在為其災難性的元宇宙轉型感到苦惱,不僅推出了一個,還推出了兩個大型語言模型的開源(或類似開源)版本。OpenAI將ChatGPT授權給其他公司使用,數十家公司紛紛排隊將其應用於自家產品中。

這種重塑可能會比幾個月前的風潮所預示的要遠的多,甚至可能根本不會發生。最近一篇《華爾街日報》的文章指出,新版的Bing並未在消費者中引起迴響,引用了兩家不同的分析公司的數據,顯示Bing的市場份額與今年1月的AI前時代相比基本持平。(微軟對《華爾街日報》表示,這些公司低估了數據,但不會分享內部數據。)根據Statcounter的數據,微軟的瀏覽器Edge,用戶必須使用該瀏覽器才能訪問Bing Chat,確實獲得了用戶數的提升,但幾乎沒有明顯的增長,而且已經開始下滑,而同時期Chrome的市場份額則有所增加。然而,對於微軟來說仍然有希望。當Bing Chat在不同且更受歡迎的瀏覽器上更容易或可能訪問時,它可能會得到更多使用。微軟告訴《華爾街日報》表示計劃很快就會實現這一點。

與此同時,OpenAI的ChatGPT似乎也出現了困境。根據《華盛頓郵報》的報導,自去年推出以來,ChatGPT網站的流量在6月份首次下降了近10%。報導稱,其iPhone應用程式的下載量也有所下降,儘管OpenAI不會對數據進行評論。

而且,與微軟相比,Google尚未將其聊天機器人像微軟那樣廣泛地整合到其搜索引擎當中,而是仍將其保持在主要搜索頁面之外,並繼續將其定位為一項實驗性技術,可能會“顯示不準確或冒犯性信息”。Google對於Bard的使用量數據未做回應。

鑒於某些聊天機器人存在的問題,Google的方法可能是正確的。我們現在有無數的例子顯示,聊天機器人走入歧途,從與用戶進行極個人化的對話,到噴發出完全不準確的訊息,最後甚至出現帶有貫穿整個科技領域的固有偏見內容。雖然其中一些問題在某種程度上已經被一些公司減輕,但情況似乎正在惡化,而非改善。聯邦貿易委員會正在調查ChatGPT的不準確回應。最近的一項研究顯示,OpenAI的GPT-4,也就是其最新版本的大型語言模型,僅僅幾個月內在某些領域的準確性顯著下降,這表明該模型正在隨著時間改變,這可能會導致其輸出出現巨大的差異。嘗試通過AI生成的內容填充新聞頁面導致了多次嚴重的錯誤。由於聊天機器人引發的作弊行為激增,OpenAI不得不撤銷其用於檢測ChatGPT生成文本的工具,因為其效果不佳。

上週,包括OpenAI、Google和Meta在內的八家大型語言模型公司將它們的模型帶到了DEF CON,一個大規模的黑客大會,讓盡可能多的人測試這些模型的準確性和安全性,這是一個首次的壓力測試,稱為「紅隊測試」。拜登政府一直強調AI技術的安全開發和部署的重要性,並支持和宣傳了此次活動。拜登總統的科學顧問和白宮科學技術辦公室主任Arati Prabhakar告訴Vox,這是一個「真正找出這些聊天機器人的運作情況的機會,了解使它們走入歧途有多難或多容易?」

這個挑戰的目標是為這些公司提供一些迫切需要的數據,以確定他們的模型是否會崩潰,這些數據由各種背景的人提供,他們可能會以公司內部團隊未曾考慮過的方式進行測試。我們將看到這些公司如何處理這些數據,而且他們參與了這次活動,這已經是一個好的現象,儘管白宮敦促他們參與無疑也是一個促使因素。

與此同時,這些模型和由它們生成的聊天機器人已經被數億人使用,其中許多人可能會將這些聊天機器人所說的話視為現實。特別是當他們可能並不知道這些訊息來自聊天機器人(例如,CNET幾乎沒有透露哪些文章是由機器人撰寫的)。然而,正如各種報導所顯示,一些AI工具在公眾中的興趣逐漸減退,如果想要生存下去,它們需要變得更好。我們甚至不知道這項技術是否真的可以被修復,因為連開發人員自己都聲稱並不知道它們全部的內部運作方式。

生成式人工智慧確實可以做出一些驚人的事情。矽谷之所以對它感到興奮,許多人也嘗試過它,這都有其原因。但尚待觀察的是,它是否能夠超越這些考驗,考慮到它仍然存在的缺陷,目前可能僅僅是一種實驗而已。


新聞原址: https://www.vox.com/technology/2023/8/19/23837705/openai-chatgpt-microsoft-bing-google-generating-less-interest?ref=futurepedia