Blog

AI 提問設計:學習如何不向聊天機器人提出愚蠢的問題

Blog Image
AI 提問設計:學習如何不向聊天機器人提出愚蠢的問題

July 31, 2023

了解如何與ChatGPT及其他AI工具互動,使其輸出符合您的期望,很快將成為辦公室的關鍵技能。而以下是您需要知道的一些內容。

在對ChatGPT這個由人工智慧(AI)驅動的語言處理工具的最初熱潮過後,聊天機器人的使用越來越普遍。那麼,您如何為工作和家庭訓練您的AI呢?我們為您準備了一些簡單問題的答案。

什麼是提示工程 (prompt engineering)?
它是一種與生成AI模型有效溝通的技巧。像ChatGPT,Bard和Dall-E這樣的系統在輸入(稱為提示)指示它們生成的時候,將產生文本、圖像和音樂片段。但提示的用詞可能會戲劇性地改變回饋的輸出。提示工程就是為AI系統制定提示的過程,使其產生的輸出能夠更貼近您的期望。



這與一般的提問有何不同?
您可能需要多注意。隨意向ChatGPT提問,它可能提供令人滿意的答案,也可能不是。提示工程涉及到需要考慮AI模型的特殊性,以便建構出模型能清晰理解的輸入。這傾向於產生更一致、有用、有趣並符合您想法的輸出。好好地制定提示,回應甚至可能超出您的期望。

為什麼我需要在意?
像ChatGPT,Bard和Bing Chat這樣的聊天機器人可以非常方便地完成日常行政任務。倡導者已將它們用於起草電子郵件、總結會議記錄、起草合同、計劃假期,並迅速回答復雜問題。

范德堡大學(Vanderbilt University)在田納西州納什維爾的計算機科學副教授朱爾斯·懷特(Jules White)表示:“任何人都可以擁有全球最強大的個人助理之一,使他們更有效率或讓他們創造不同尋常的東西。” “但您必須了解如何與它互動。”這意味著要知道如何有效地提示。

提示的巧妙之處也可能給招聘經理留下深刻印象。就業網站Indeed的人才戰略顧問Matt Burney表示,要求AI熟練的工作廣告數量雖然不多,但正在增加,各行各業的公司越來越在考慮如何將模型整合到他們的工作流程中。“如果您現在還沒有使用它,那麼您將落後於那些正在使用它的人們。”

那我該怎麼做?
有幾種受歡迎的提示技巧。使用人格角色是一個常見的技巧。告訴系統扮演律師、個人導師、教官或其他角色,它將創造並模仿他們的語調和聲音。或者,作為反向練習,指示它以特定的受眾為目標完成任務,例如五歲的孩子、一組專家生化學家、辦公室的聖誕派對,您將得到為這個人群量身定做的結果。關鍵是,您不需要自己知道人格的風格特點,而可以讓系統自行弄清楚。

與此同時,思維鏈提示更適合解決問題。要求模型“逐步思考”將鼓勵它將輸出劃分為容易理解的小塊,這通常會產生更全面的結果。一些研究人員還發現,向AI模型顯示帶有逐步解決方案的示例問題,將提高其解決其他相似問題時找到正確答案的能力。

事實上,更多的示範永遠更加有幫助。如果您有非常具體的輸出需求,可以上傳一個文本示例或圖像以說明您希望生成的內容,並指示模型將其用作模板。如果結果最初不准確,再進行幾輪明確指定的調整可能就能奏效。懷特說:“您要將其視為一個持續的對話,開始並不斷迭代和精煉。”

還不要忘記日常語言的基本原則:清晰、命令式的指示,使誤解降到最低。明確陳述您對輸出的需求和不想看到的,並設定清晰的字數和格式。

我應該避免什麼?
模糊的語言。如果沒有額外資訊,AI模型無法推斷出您的口味、想法或頭腦中產品的構想。不要吝嗇提供具體內容或背景,不要期望如果缺少某些內容,模型會正確地填補空白。

能阻止AI胡說八道嗎?
不行。即使明確指示不要這樣做,大型語言模型還是會偽造來源,並提供聽起來合理但完全錯誤的資訊。位於倫敦英國圖書館的艾倫·圖靈研究所的倫理學者Mhairi Aitken表示:“這些模型的一個棘手問題是,它們旨在預測一系列單詞,以模仿人類語言,但與真實或現實世界沒有聯繫。”

然而,精明的提示可以在出現虛假陳述後幫助應對。悉尼大學的商業分析講師Marcel Scharth表示:“如果聊天機器人提出不正確的資訊,您可以指出錯誤並要求它根據您的反饋重寫答案。”

懷特建議要求模型產生其輸出依賴的基本事實清單,以便您可以逐個驗證它們。或者,向它提供一個帶有數字的事實清單,以便在回答中使用,並在使用時引用每一個事實,以便日後加快事實核查。

這可能成為一種職業嗎?
對於一些人來說,或許可以。AI開發人員已經聘請提示工程師來測試模型的局限性和缺點,以便能夠更好地處理用戶輸入。

但是,這些職位的壽命不能被保證。田納西大學的計算機科學講師Rhema Linder表示,開發人員可能會更喜歡專業的計算機科學家,而不是自稱的提示工程師,而且缺乏行業公認的認證意味著評估一個人的提示能力是困難的。

在更廣泛的就業市場中,提示工程可能會像電子表格管理或搜索引擎優化一樣,成為各種角色所需的技能,並受到招聘經理的青睞,作為你履歷上的另一個亮點。

Burney說:“使用大型語言模型或生成的預訓練變換器的經驗將成為幾乎每個辦公室工作的要求。” “因為如果你不會,你將在實現目標方面變得緩慢。”

這一切都會變得過時嗎?
就像AI模型不穩定一樣,提示工程的最佳實踐也不穩定。現有系統的技術可能在更新版本中效用下降,儘管目前還不清楚變化可能有多大。

White表示:“我認為將有一些核心概念和模式不會改變。”他建議AI開發人員將注意常見的提示技巧。“許多這樣的措辭方式將成為新模型受訓的基準,因此一些提示工程將反饋於模型本身。”

更重要的是,模型對即使是最模糊、未經工程處理的提示的理解能力可能會大幅提高。“隨著這些系統變得更具對話性,與它們的互動變得更直觀,未來我們可能不需要提示工程,”Aitken說。

對於一些開發人員來說,這就是目標。