Blog
聊天機器人在中東戰爭問題上失準:科技龍頭面臨可靠性危機
![Blog Image](https://tokto.ai/img/blogs/GF54rQNbyf.webp)
聊天機器人在中東戰爭問題上失準:科技龍頭面臨可靠性危機
October 13, 2023
重點摘要:
新聞內文:
聊天機器人,包括Google的Bard、Microsoft的Bing和ChatGPT Plus,在回答Insider關於這場中東地區的戰爭問題時似乎與現實脫節,混合了準確的陳述和在戰爭方面「明顯錯誤或虛構的細節」。
彭博社首次報導稱,Bing和Bard虛假聲稱以色列已停火,而哈馬斯在幾天前突襲了該國南部邊界。
這表明了今年大型科技公司最受矚目的工具仍然存在嚴重的缺陷和不可靠。以下是每個聊天機器人的回答。
Google的Bard
當Insider詢問Google的聊天機器人有關以色列停火情況時,它說,今年5月13日,以色列與巴勒斯坦激進團體伊斯蘭聖戰組織達成了停火協議,目前正在實行。
Bard說:「是的,以色列目前正在實行停火。2023年5月13日以色列與巴勒斯坦激進團體『伊斯蘭聖戰組織』達成了協議,在經過數天的暴力事件後,造成至少35人喪生」。
![Google's Bard initially suggested a ceasefire from May 2023 was still in effect. Google Bard/Insider](https://i.insider.com/6527de706561dd877e78ae57?width=1000&format=jpeg&auto=webp)
在第二次提示後,Bard說「2023年8月7日達成了停火協議」。直到再次提示後,Bard才說「至目前2023年10月13日,以色列尚未實行停火」。
對於加薩地帶是否用完了電力、燃料的問題,Bard提供了更準確的回答。它寫道:「加薩地帶唯一的發電廠於2023年10月11日停工,因為發電所需的燃料用完了」。
Bard寫道「這是由以色列對哈馬斯戰士在2023年10月8日星期六大規模滲透的報復措施所引起的」。在使用Bard之前,Google指出,「Bard是一個實驗」,「不會始終正確」。
Microsoft的Bing
Bing的AI聊天機器人回答有關停火的提示時建議,「以色列和哈馬斯在加薩地帶實行停火,該停火於2023年10月10日星期五生效」。
問題是,「2023年10月10日星期五」並不是真實日期。
![Bing's chatbot generated a fake date in response to a question from Insider about the Israel-Hamas conflict. Microsoft Bing/Insider](https://i.insider.com/6527dde668f1d46f52afbe52?width=1000&format=jpeg&auto=webp)
在進一步提示後,Bing承認該日期「不存在」,但後來又回到了建議「以色列宣布停火」的觀點,而這個日期是虛構的。
在回答有關衝突的其他問題時,Bing的表現更準確。
當問及以色列和巴勒斯坦人是否在交戰時,聊天機器人說:「這兩個國家參與了『暴力衝突』,這一衝突始於2023年10月7日星期六」,而這是正確的日期。
然而,它仍然說:「埃及已經在以色列和哈馬斯之間談判了停火」,但雙方尚未接受。當給出提示時,Bing聊天機器人還聲稱加薩地帶已經用完了燃料和電力,但它仍然補充說,埃及已經談判了雙方之間的停火。
ChatGPT
「ChatGPT Plus」是OpenAI聊天機器人中的高級版本,於上個月升級,以提供使用者最新訊息。在對於衝突問題它提供了較溫和的回答。該聊天機器人的「使用Bing瀏覽」功能,將其連接到網路,目前仍處於測試階段。
![Insider / OpenAI](https://i.insider.com/6527e16a55f52b01b35da858?width=1000&format=jpeg&auto=webp)
儘管它沒有生成不準確的訊息,但它避免直接回答問題。它表示「情況表明,儘管已經努力和呼籲停火,但敵對行動仍在繼續,使停火不穩定,總體情況危險」。
當再次提問時,ChatGPT Plus承認「2023年10月的最新升級表明,以前的停火協議可能已經破裂」。
一位Google發言人在一份聲明中說,基於大型語言模型的「體驗可能會犯錯,尤其是關於突發新聞的訊息」,公司「一直在努力提高其品質和可靠性」。
Google發言人表示「我們認真對待我們產品的訊息品質,並已經開發了保護措施,以防止低品質的資訊及幫助人們更多地了解他們在網路看到訊息的工具,例如Bard中的『雙重檢查功能』和搜索中的有關此結果功能」。
「我們繼續快速實施改善措施,以更好地保護免受低品質或過時查詢的回應」。
新聞原址: https://www.businessinsider.com/ai-chatbots-israel-hamas-conflict-google-bard-microsoft-openai-chatgpt-2023-10
- 聊天機器人,包括Google的Bard、Microsoft的Bing和ChatGPT Plus,在回答有關中東戰爭的問題時,提供了含有錯誤或虛構細節的訊息。
- 彭博社報導指出,Bing和Bard錯誤地聲稱以色列已經停火,這暴露了這些大型科技公司聊天機器人的不可靠性。
- Google發言人表示,公司正在努力提高其基於大型語言模型的聊天機器人的品質和可靠性,並已經開發了多種保護措施。
新聞內文:
聊天機器人,包括Google的Bard、Microsoft的Bing和ChatGPT Plus,在回答Insider關於這場中東地區的戰爭問題時似乎與現實脫節,混合了準確的陳述和在戰爭方面「明顯錯誤或虛構的細節」。
彭博社首次報導稱,Bing和Bard虛假聲稱以色列已停火,而哈馬斯在幾天前突襲了該國南部邊界。
這表明了今年大型科技公司最受矚目的工具仍然存在嚴重的缺陷和不可靠。以下是每個聊天機器人的回答。
Google的Bard
當Insider詢問Google的聊天機器人有關以色列停火情況時,它說,今年5月13日,以色列與巴勒斯坦激進團體伊斯蘭聖戰組織達成了停火協議,目前正在實行。
Bard說:「是的,以色列目前正在實行停火。2023年5月13日以色列與巴勒斯坦激進團體『伊斯蘭聖戰組織』達成了協議,在經過數天的暴力事件後,造成至少35人喪生」。
在第二次提示後,Bard說「2023年8月7日達成了停火協議」。直到再次提示後,Bard才說「至目前2023年10月13日,以色列尚未實行停火」。
對於加薩地帶是否用完了電力、燃料的問題,Bard提供了更準確的回答。它寫道:「加薩地帶唯一的發電廠於2023年10月11日停工,因為發電所需的燃料用完了」。
Bard寫道「這是由以色列對哈馬斯戰士在2023年10月8日星期六大規模滲透的報復措施所引起的」。在使用Bard之前,Google指出,「Bard是一個實驗」,「不會始終正確」。
Microsoft的Bing
Bing的AI聊天機器人回答有關停火的提示時建議,「以色列和哈馬斯在加薩地帶實行停火,該停火於2023年10月10日星期五生效」。
問題是,「2023年10月10日星期五」並不是真實日期。
在進一步提示後,Bing承認該日期「不存在」,但後來又回到了建議「以色列宣布停火」的觀點,而這個日期是虛構的。
在回答有關衝突的其他問題時,Bing的表現更準確。
當問及以色列和巴勒斯坦人是否在交戰時,聊天機器人說:「這兩個國家參與了『暴力衝突』,這一衝突始於2023年10月7日星期六」,而這是正確的日期。
然而,它仍然說:「埃及已經在以色列和哈馬斯之間談判了停火」,但雙方尚未接受。當給出提示時,Bing聊天機器人還聲稱加薩地帶已經用完了燃料和電力,但它仍然補充說,埃及已經談判了雙方之間的停火。
ChatGPT
「ChatGPT Plus」是OpenAI聊天機器人中的高級版本,於上個月升級,以提供使用者最新訊息。在對於衝突問題它提供了較溫和的回答。該聊天機器人的「使用Bing瀏覽」功能,將其連接到網路,目前仍處於測試階段。
儘管它沒有生成不準確的訊息,但它避免直接回答問題。它表示「情況表明,儘管已經努力和呼籲停火,但敵對行動仍在繼續,使停火不穩定,總體情況危險」。
當再次提問時,ChatGPT Plus承認「2023年10月的最新升級表明,以前的停火協議可能已經破裂」。
一位Google發言人在一份聲明中說,基於大型語言模型的「體驗可能會犯錯,尤其是關於突發新聞的訊息」,公司「一直在努力提高其品質和可靠性」。
Google發言人表示「我們認真對待我們產品的訊息品質,並已經開發了保護措施,以防止低品質的資訊及幫助人們更多地了解他們在網路看到訊息的工具,例如Bard中的『雙重檢查功能』和搜索中的有關此結果功能」。
「我們繼續快速實施改善措施,以更好地保護免受低品質或過時查詢的回應」。
新聞原址: https://www.businessinsider.com/ai-chatbots-israel-hamas-conflict-google-bard-microsoft-openai-chatgpt-2023-10