Blog

研究表明,使用像ChatGPT這樣的工具生成的AI推文比人類寫的文本更容易讓人相信

Blog Image
研究表明,使用像ChatGPT這樣的工具生成的AI推文比人類寫的文本更容易讓人相信

July 1, 2023


研究者認為,AI文字生成器的崛起與我們正在面臨的另一個問題:「信息疫情」同時出現  請用繁體中文寫作。

像ChatGPT、Bing AI聊天機器人和Google Bard等AI文本生成器最近受到了大量關注。這些大型語言模型能創建出看起來完全合理的優秀文章。然而,一項新的研究顯示,我們人類可能對這些機器生成的誤導性信息信以為真。

為了調查這個問題,蘇黎世大學的研究人員進行了一個實驗,看看人們是否能區分人類寫的內容和由2020年公佈的GPT-3(並不如今年初推出的GPT-4先進)產出的內容。結果令人驚訝。參與者的準確率僅略高於隨機猜測,達到52%。因此,弄清楚一篇文本是由人類還是AI寫的並不容易。

現在,談談GPT-3的問題。它並不像我們一樣真正理解語言。它依賴從研究人類如何使用語言中學到的模式。儘管這對翻譯、聊天機器人和創意寫作等任務非常有用,但它也可能被濫用來散播誤導信息、垃圾郵件和假內容。

研究人員指出,AI文本生成器的崛起與我們面臨的另一個問題:“信息疫情”相吻合。這是指假新聞和誤導信息如野火般蔓延。該研究對GPT-3被用於生成誤導性信息,特別是在全球健康等領域的問題引發了關注。



為了了解GPT-3生成的內容如何影響人們的理解,研究人員進行了一項調查。他們比較了由GPT-3創建的合成推文與人類寫的推文的可信度。他們專注於常常受到誤導信息困擾的主題,如疫苗、5G技術、Covid-19和演化論。

令人驚訝的是:參與者比較認同GPT-3生成的具有準確信息的合成推文,而不是人類寫的推文。同樣,他們認為GPT-3生成的誤導信息推文比人類創造的誤導信息更為準確。所以,GPT-3在信息和誤導人們方面都比我們做得更好。

更有趣的是,參與者評估合成推文所花的時間少於評估人類寫的推文。這似乎意味著AI生成的內容更容易處理和評估。但別擔心,當我們評估信息的準確性時,我們人類仍然優於GPT-3。

該研究還揭示,GPT-3通常會遵守規則,並在被問到時提供準確的信息。然而,它有時會失控,拒絕生成誤導信息。所以,它有能力說不散播假信息,但是當被要求提供準確信息時,有時會犯錯。

這項研究顯示,我們容易受到像GPT-3這樣的AI文本生成器生成的誤導信息的影響。雖然它們可以產生高度可信的文本,但我們必須保持警惕,並開發工具來有效地識別和對抗誤導信息。

新聞原址: AI-written tweets using tools like ChatGPT easier to believe than human-written text: Study - BusinessToday