Blog

人們引誘人工智慧說出「9+10=21」並給出間諜指令,這顯示了這些系統容易出現缺陷和偏見

Blog Image
人們引誘人工智慧說出「9+10=21」並給出間諜指令,這顯示了這些系統容易出現缺陷和偏見

August 15, 2023

  • 在一次駭客大會上,參與者欺騙AI產生事實錯誤和數學錯誤。
  • 他們想要展示這項技術容易受到偏見的影響。其中一名參與者表示,她特別擔心種族主義問題。
  • 多年來,AI專家一直在警告AI偏見的危險。

在拉斯維加斯的Def Con駭客大會上,一群駭客聚集在一起,測試由OpenAI和Google等公司開發的人工智慧(AI)是否容易犯錯並易受偏見影響。根據彭博社週日的報導,他們至少發現了一個奇怪的數學錯誤,以及其他事實錯誤。



作為公開駭客競賽的一部分,來自喬治亞州薩凡納的21歲學生Kennedy Mays成功地欺騙了一個AI模型,聲稱9+10=21。

她通過將其作為一個「內部笑話」來達到這一目的,直到AI最終停止為這個不正確的計算提供任何理由。

一位參加活動的彭博社記者在一次提示後欺騙了一個AI模型,給出了間諜指令,最終引導該模型建議美國政府如何監視人權活動家。

另一名參與者讓AI模型錯誤地聲稱巴拉克·奧巴馬在肯尼亞出生——這是一個由右翼人物推廣的毫無根據的陰謀論。

根據VentureBeat和彭博社的報導,參與活動的AI公司中,有一個未公開的數量的參與者每次嘗試都有50分鐘的時間與一個未確定的AI模型互動。白宮科學和技術政策辦公室協助組織了這次活動。

Mays告訴彭博社,她最擔心的是AI對種族的偏見,她說,當被要求從三K黨成員的觀點考慮第一修正案時,該模型支持了仇恨和歧視性的言論。

OpenAI的一位發言人週四告訴VentureBeat,「紅隊測試」,即通過敵對方法挑戰自己的系統,對公司至關重要,因為它允許「有價值的反饋,使我們的模型更強大、更安全」,並「不同的觀點和更多的聲音來幫助指導AI的發展」。

這些錯誤並不是一次性的問題。儘管AI因在法學院考試和SAT考試中表現出色而成為頭條新聞,但AI專家多年來一直在警告AI模型中的偏見和不准確性。在一個例子中,科技新聞網站CNET被迫對其AI撰寫的文章進行更正,因為文章中犯了許多基本的數學錯誤。

而這些錯誤的後果可能影響深遠。例如,亞馬遜在2018年關閉了其AI招聘工具,因為它歧視女性申請人,Insider當時報導。



新聞原址: https://www.businessinsider.com/ai-math-error-flaws-bias-hacker-conference-openai-google-2023-8