Blog

AI專家警告:向ChatGPT透露私密訊息可能對使用者造成風險"

Blog Image
AI專家警告:向ChatGPT透露私密訊息可能對使用者造成風險"

December 27, 2023

重點摘要:
  1. 牛津大學的AI專家麥克·伍爾德里奇教授警告,向ChatGPT透露工作抱怨或政治偏好可能會對使用者造成不良後果。他認為,與AI共享私人訊息是不明智的,因為這些訊息會被用於訓練未來版本的AI。
  2. 伍爾德里奇強調AI缺乏同情心和同理心,並指出人們尋求AI中的意識是徒勞的。他解釋說,AI的核心功能是回應用戶想要聽到的話,而不是體驗或感受。
  3. OpenAI引入了關閉聊天歷史的功能,以保護用戶隱私。伍爾德里奇提醒,一旦用戶的數據進入系統,就幾乎不可能取回,並且這些數據將直接用於訓練未來版本的ChatGPT。



新聞內文:
牛津大學的人工智慧專家麥克·伍爾德里奇教授警告,向ChatGPT透露工作抱怨或政治偏好可能會對使用者造成不良後果。

伍爾德里奇表示,與聊天機器人分享私人訊息或進行心靈交流是「極其不明智的」,因為任何揭露的訊息都有助於訓練未來版本的AI。

他還補充說,使用者不應期望對他們的評論獲得平衡的回應,因為該技術「告訴你你想聽的話」。

伍爾德里奇正在探討今年皇家學會聖誕講座中的AI主題。根據該機構的說法,他將探討「AI研究面臨的重大問題,並揭開關於這項突破性技術真正運作方式的神話」。

他將討論的主題包括機器如何被教導從一種語言翻譯到另一種語言,以及聊天機器人如何工作。他還將回答圍繞AI的一個重要問題:它是否能真正像人類一樣?

伍爾德里奇告訴《每日郵報》,雖然人類被編程去尋找AI中的意識,但這是徒勞的。他說,AI「沒有同情心與同理心」。

他補充說:「這絕對不是技術的工作方式,關鍵的是,它從未經歷過任何事情」。「這項技術基本上是設計來嘗試告訴你你想聽的話,這就是它所做的全部」。

他提供了一個令人警醒的洞察:「你應該假設你輸入ChatGPT的任何東西都將直接用於未來版本的ChatGPT」。如果事後你覺得你向ChatGPT透露了太多,撤回並非真正的選項。根據伍爾德里奇的說法,考慮到AI模型的運作方式,一旦你的數據進入系統,幾乎不可能取回。

ChatGPT背後的組織OpenAI的一名發言人表示:「在四月,我們引入了關閉聊天歷史的功能。當聊天歷史被禁用時開始的對話不會被用來訓練和改進我們的模型」。

在整個講座系列中,伍爾德里奇將與AI界的主要人物一起出席。皇家學會表示,他還將介紹「一系列的機器人朋友,他們將展示今天的機器人能做什麼及不能做什麼」。

聖誕講座由邁克爾·法拉第於1825年在倫敦的皇家學會開始,旨在吸引並教育年輕人關於科學。它們於1936年首次播出,成為最古老的科學電視系列。

曾經進行過這些講座的人包括諾貝爾獎得主威廉和勞倫斯·布拉格、大衛·阿滕伯勒爵士、卡爾·薩根和南希·羅斯威爾女爵士。

新聞原址: https://www.theguardian.com/technology/2023/dec/26/ai-artifical-intelligence-secrets-chatbots-chatgpt--mike-wooldridge