Blog

AI聊天機器人:流暢語言背後的數學計算與『虛幻』事實

Blog Image
AI聊天機器人:流暢語言背後的數學計算與『虛幻』事實

September 2, 2023

重點摘要:
  1. 像ChatGPT這樣的AI聊天機器人是基於大型語言模型的,這些模型被餵入大量的資訊。
  2. 它們還由人類進行培訓,幫助系統「學習」什麼是適當的回應。
  3. 以下是計算機科學專家解釋機器人如何知道下一步該說什麼的方式。



新聞內文:
ChatGPT和其他由人工智慧驅動的聊天機器人一樣可以說出流利、文法正確的句子,甚至可能具有自然的節奏。

但專家們表示,不要被這種精心設計的語言誤導,誤以為其中包含思想、情感,甚至意圖。

專家們表示,聊天機器人的工作方式更像是「一台機器進行數學計算和統計分析」,根據上下文選擇正確的詞語和句子。後台有很多培訓工作,包括由人類標註者提供的反饋,這有助於模擬功能性對話。

像ChatGPT這樣的機器人還接受大量對話的培訓,這些對話教會機器如何與使用者互動。OpenAI,ChatGPT的創造公司,在其網站上表示,其模型接受了來自各種來源的資訊,包括來自使用者和它許可的素材。

以下是這些聊天機器人的工作方式:
像ChatGPT這樣的AI聊天機器人基於大型語言模型(或稱為LLMs),這些程式是透過從過去已發表的文本和網路上獲取的大量文本進行訓練的,通常是人類生成的內容。

專家們表示,這些系統是透過一系列詞語進行訓練,並學習了這些系列中詞語的重要性。因此,所有這些吸收的知識不僅可以對大型語言模型進行事實訊息的訓練,還可以幫助它們預測語言模式,以及訓練詞語是如何使用和組合在一起的。

聊天機器人還透過人類進一步培訓,以提供適當的回應並限制有害的消息。

西北大學的計算機科學教授Kristian Hammond說:「你可以說,『這是有害的、這太政治化了,這是觀點』,然後將其限制為『不生成這些東西』」。Hammond還是該大學機器智慧安全促進中心的主任。

當您要求聊天機器人回答一個簡單的問題時,回憶過程可能很簡單:它正在使用一組算法選擇最可能的句子作為回答。並且在毫秒內選擇最佳的回答選擇,然後在這些頂級選擇中隨機選擇一個(這就是為什麼重複提問相同的問題可能會生成稍有不同的答案)。

它還可以將問題分解成多個部分,按順序回答每個部分,並使用其回答來幫助完成回覆。

Hammond說,假設您要求機器人命名一位美國總統,他的名字與電影《騎士&與坎梅洛》的男主角相同。機器人可能首先回答該男演員是Richard Harris,然後使用該答案將Richard Nixon作為您最初問題的答案。

Hammond說:「它自己先前的回答成為提示的一部分」。

但要注意聊天機器人不知道的內容。當您問它一個不知道答案的問題時,會發生什麼情況?這就是聊天機器人因爲它的特性而引起最大麻煩的地方,「它們不知道」。因此,他們會根據他們所知道的內容進行推斷,他們用猜測的。

但他們不會告訴您他們正在猜測。他們可能只會將訊息呈現為事實。當聊天機器人「創造出資訊」並將其呈現給使用者時,而這些訊息被呈現為事實時,這就被稱為「虛幻」。

加利福尼亞大學聖塔芭芭拉分校的計算機科學副教授William Wang說「這就是我們所謂的知識或元認知的知識」。他還是該大學自然語言處理小組的聯合主任。

他說:「模型並不真正很好地理解已知的未知」。

新聞原址: https://www.businessinsider.com/how-ai-chatbots-like-chatgpt-work-explainer-2023-7