Blog

OpenAI 並未充分地警告ChatGPT的相關限制

Blog Image
OpenAI 並未充分地警告ChatGPT的相關限制

August 1, 2023

用戶應該為沒有注意到警告而承擔責任,但是OpenAI其實可以做得更多,以明確表示ChatGPT無法可靠地區分事實與虛構。

「可能偶爾產生不正確的資訊。」



這是OpenAI在其人工智慧聊天機器人ChatGPT的首頁上標註的警告,詳述了系統的功能和限制的九個要點之一。

「可能偶爾產生不正確的資訊。」

這是一個警告,你幾乎可以貼在任何資訊來源上,從維基百科到Google,甚至到《紐約時報》的頭版,它都或多或少是正確的。

「可能偶爾產生不正確的資訊。」

因為當涉及讓人們準備使用像ChatGPT這樣強大、被過度吹捧並且被誤解的技術時,OpenAI顯然做得還不夠。

上週末,美國律師Steven A. Schwartz尋找起訴哥倫比亞航空公司Avianca的支持案例時轉向聊天機器人,ChatGPT的誤解性再次暴露。問題當然是,ChatGPT建議的所有案例都不存在。

Schwartz聲稱他「不知道ChatGPT的內容可能是假的」,儘管他與機器人的對話記錄表明他足夠懷疑以檢查他的研究。不幸的是,他是通過詢問ChatGPT來這樣做的,系統再次誤導了他,向他保證其虛假的案例歷史是合法的:



在這種情況下,Schwartz應承擔相當多的責任,但像這樣的案例越來越頻繁地發生(當ChatGPT的用戶將系統視為可靠的資訊來源時),表明還需要更廣泛的反思。

在過去的幾個月中,有許多報告人們被ChatGPT的虛假資訊欺騙。大部分案例都是微不足道的,並且幾乎沒有或沒有負面影響。通常,系統虛構了新聞故事、學術論文或書籍,然後有人試圖找到這個來源,要不浪費他們的時間,要不看起來像個傻瓜(或兩者兼有)。但很容易看出,ChatGPT的錯誤資訊可能導致更嚴重的後果。

例如,5月,一位德克薩斯A&M大學教授使用聊天機器人檢查學生的作文是否得到AI的幫助。ChatGPT總是樂於助人,它說,是的,所有學生的作文都是由AI生成的,即使它沒有可靠的能力進行這一評估。教授威脅要讓全班不及格,並扣留他們的畢業證書,直到他的錯誤被指出。然後,在4月,一位法學教授描述了系統是如何生成虛假新聞故事指控他性不端行為的。他只有在一位正在做研究的同事提醒他事實時才知道。「這相當令人毛骨悚然,」教授告訴《華盛頓郵報》。「這種指控是非常有害的。」

我不認為像這樣的案例使ChatGPT和其他聊天機器人的潛力失效。在正確的情境和有適當保障的情況下,這些工具顯然可以非常有用。我也認為這種潛力包括像檢索資訊這樣的任務。未來正在進行各種有趣的研究,表明這些系統如何並將更具事實基礎。重點是,現在,這還不夠。

這部分是媒體的錯。關於ChatGPT和相似機器人的許多報導描繪了這些系統作為具有情感和渴望的人類智慧。通常,記者們未能強調這些系統的不可靠性,以明確表明他們提供的資訊的偶然性。

但是,正如我希望本文的開頭已經表明的那樣,OpenAI也可以幫助解決問題。雖然聊天機器人被呈現為一種新型技術,但人們明顯是將它們用作搜尋引擎(

許多聊天機器人明確地作為搜索引擎推出,所以當然人們會感到困惑)。這並不奇怪:一代網際網路用戶已經被訓練成在一個框框中輸入問題並接收答案。但是,雖然像Google和DuckDuckGo這樣的來源提供了鼓勵仔細審查的鏈接,聊天機器人卻以重新生成的文本混淆了他們的資訊,並用全知的數字助理的愉快語調說話。一兩句免責聲明不足以消除這種初步印象。

有趣的是,我發現Bing的聊天機器人(由與ChatGPT相同的技術提供支援)在這些事實查找任務上稍微做得更好;主要是,它通常傾向於回應事實查詢時搜尋網路,並向用戶提供連結作為來源。ChatGPT可以搜索網路,但只有在你付費使用Plus版本並使用beta插件時才行。其封閉的性質使其更容易誤導。

干預不需要複雜,但必須存在。例如,為什麼ChatGPT不能簡單地認識到它被要求生成事實引用時,並警告用戶「檢查我的來源」?為什麼它不能回應某人問「這個文字是由AI生成的嗎?」的問題,清楚地說「對不起,我無法做出那個判斷」?

OpenAI在這方面肯定有所改善。自ChatGPT推出以來,根據我的經驗,它在其限制方面變得更加坦誠,經常用AI的口頭禪開頭回答:「作為一個AI語言模型……」但它也不一致。今天早上,當我問機器人「你能檢測AI生成的文字嗎?」它警告說它「不是百分之百可靠」,但是當我餵給它這個故事的一部分並問同樣的問題時,它簡單地回答:「是的,這個文字是由AI生成的。」接下來,我要求它給我一個關於測量主題的書籍推薦名單(我對此有點了解)。 「當然!」它說,然後提供了10個建議。這是一個不錯的名單,涵蓋了許多經典作品,但其中兩個標題完全是虛構的,如果我不知道檢查,我不會注意到。自己嘗試類似的測試,您很快就會發現錯誤。

有了這樣的表現,像「可能偶爾產生不正確的資訊」這樣的免責聲明似乎並不准確。



新聞原址: https://www.theverge.com/2023/5/30/23741996/openai-chatgpt-false-information-misinformation-responsibility