Blog

英國警告:人工智慧將使詐騙郵件變得難以辨識,網路攻擊數量將增加

Blog Image
英國警告:人工智慧將使詐騙郵件變得難以辨識,網路攻擊數量將增加

January 24, 2024

重點摘要:

  1. 英國國家網路安全中心(NCSC)警告人工智慧將使詐騙郵件變得難以區分,包括重設密碼的詐騙郵件,因為AI工具使攻擊更複雜。
  2. 生成AI和大型語言模型將增加網路攻擊的數量,包括欺騙性消息和社交工程,這使得辨識攻擊變得更難。
  3. NCSC警告稱高能力的國家行為者可以利用AI進行高階網路操作,並提出建議企業應更好地應對勒索軟體攻擊。



新聞內文:

英國的網路安全機構警告說:「人工智慧將使真實郵件與詐騙郵件難以區分,包括要求電腦使用者重設密碼的郵件」。

國家網路安全中心(NCSC)表示,由於人工智慧工具的複雜性,人們將難以識別釣魚郵件 - 這是一種詐騙用戶交出密碼或個人信息的手法。

NCSC是英國政府通訊總部(GCHQ)間諜機構的一部分,在其對AI對英國面臨的網路威脅影響的最新評估中表示,由於人工智慧工具的複雜性,AI幾乎肯定會在未來兩年內增加網路攻擊的數量,並加劇其影響。

NCSC表示,生成AI和大型語言模型(支持聊天機器人的技術),將使識別不同類型的攻擊變得更加複雜,例如欺騙性消息和社交工程,這是一種操縱人們交出機密材料的手法。

「到2025年,生成AI和大型語言模型將使每個人都難以評估電子郵件或密碼重設請求是否真實,或者識別釣魚、欺騙或社交工程的企圖」。

NCSC表示,勒索軟體攻擊也預計將增加,這些攻擊去年襲擊了英國圖書館和皇家郵政等機構。

該機構警告說,AI的複雜性「降低了」業餘網路犯罪分子和駭客訪問系統並收集有關目標的訊息的障礙,使他們能夠使受害者的計算機系統癱瘓,提取敏感數據並要求加密財物贖金。

NCSC表示,生成AI工具已經幫助使接觸潛在受害者的方法更加令人信服,它們創造了假的「誘餌文件」,這些文件不包含通常會暴露釣魚攻擊的翻譯、拼寫或語法錯誤 - 這些內容已由聊天機器人編寫或更正。

然而,它表示,生成AI作為一種能幹的編碼工具,將不會提高勒索軟體代碼的效力,但將幫助篩選並識別目標。

根據英國數據監察官辦公室的數據,2022年英國報告了706起勒索軟體事件,而2021年則有694起。

該機構警告稱,國家行為者可能擁有足夠的惡意軟體以培訓一個特別創造的AI模型,該模型將創造新的代碼,能夠避免安全措施。 NCSC報告稱,這種模型必須在從其目標提取的數據上進行培訓。

NCSC報告稱:「高能力的國家行為者在網路威脅行為者中幾乎肯定是最有能力的,可以充分利用AI進行高級網路操作」。

該報告隨著英國政府提出新的指導方針而來,鼓勵企業更好地裝備自己以應對勒索軟件攻擊。NCSC表示,「《網路治理實踐守則》目的在將訊息安全與財務和法律管理劃在同一層次」。

但是網路安全專家呼籲採取更強有力的行動。前NCSC主任Ciaran Martin表示,除非公共和私營機構徹底改變對待勒索軟體威脅的方式,「在未來的五年中每年都可能發生英國圖書館攻擊那樣嚴重的事件」。Martin在一份新聞通訊中寫道,英國需要重新評估其對待勒索軟體的方法,包括建立有關支付贖金的更強規則,並放棄對位於敵對國家的犯罪分子「反擊」的「幻想」。

新聞原址: https://www.theguardian.com/technology/2024/jan/24/ai-scam-emails-uk-cybersecurity-agency-phishing