在基本層面上,人工智能(AI)賦予了惡意攻擊者超能力。Mackenzie Jackson,GitGuardian的開發人員和安全倡導者,在Bsides Zagreb的演講中指出,自從ChatGPT於2022年11月推出以來,惡意攻擊者的超能力在不斷增強,尤其體現在釣魚、短信釣魚和語音釣魚攻擊的影響上。此外,還有惡意的大型語言模型(LLMs),例如FraudGPT、WormGPT、DarkBARD和White Rabbit(僅舉幾例),允許威脅行為者編寫惡意代碼、生成釣魚頁面和消息、識別洩露和漏洞,創建黑客工具等。AI並未必然使攻擊更加複雜,但它確實使更多人能夠進行攻擊。
AI引發的潛在攻擊
我們無法想像未來AI引發的所有攻擊類型。Jackson列舉了一些目前可以想像到的攻擊。其中之一是針對由ChatGPT驅動的電子郵件助手的提示注入攻擊,攻擊者可能利用這種方式操縱助手執行操作,例如刪除所有電子郵件或將其轉發給攻擊者。受ChatGPT直接創造一個不存在的軟件包的查詢啟發,Jackson還提出,攻擊者可能利用LLMs的“幻覺”傾向,創建許多開發人員可能正在搜索的(但目前不存在的)帶有惡意軟件的軟件包。。
即時威脅
然而,我們現在面臨的更緊迫的威脅之一是敏感數據洩露。由於人們經常在提示中插入敏感數據,聊天記錄成為網絡罪犯的一個有吸引力的目標。不幸的是,這些系統並未設計用於保護數據——ChatGTP曾經洩露用戶的聊天記錄甚至個人和帳單數據。此外,一旦數據輸入到這些系統中,它可以“傳播”到各種數據庫,使其難以控制。基本上,輸入到這些系統中的數據可能會在不同平台上持續保持可訪問性。即使可以禁用聊天記錄,也無法保證數據不會被存儲在某個地方。Jackson認為,明顯的解決方案是禁止在企業環境中使用LLMs,但這個選項有太多缺點。
雖然AI的應用帶來了許多好處,但它也伴隨著一些風險。以下是一些AI攻擊的潛在威脅:
數據操縱:惡意使用AI可以操縱數據,例如在選舉中散播假新聞、改變投票結果或操縱金融市場。
偽造內容:AI可以生成逼真的偽造內容,包括假新聞、假證據、假視頻和假音頻。這可能對社會造成混亂,並影響人們的信任。
隱私侵犯:AI可以分析大量數據,從而揭示出個人的隱私信息。這可能導致身份盜竊、個人信息泄露和其他隱私侵犯。
自動化攻擊:AI可以自動化攻擊,例如DDoS攻擊、惡意軟件傳播和網絡入侵。這使攻擊者能夠更快地進行大規模攻擊。
社交工程:AI可以生成逼真的社交工程攻擊,例如釣魚郵件、詐騙電話和欺詐性消息。這可能使人們上當受騙。
保護措施
為了應對這些風險,我們需要:
教育和意識:提高公眾對AI攻擊的認識,教育人們識別和應對這些威脅。
技術解決方案:開發更強大的AI檢測和防禦工具,以檢測和阻止惡意使用AI的行為。
法規和政策:制定相應的法規和政策,以限制AI的濫用,保護公眾利益。
倫理和透明度:AI開發者應該遵循倫理準則,並公開透明地報告其AI系統的功能和風險。
總之,AI攻擊是一個現實的威脅,我們需要共同努力,以確保AI的應用不會對我們的社會和個人造成傷害。
詳情請看: