Published 6月 19, 2024 by Kevin

The hacker news:如何防止生成式AI的數據洩露風險

生成式AI(GenAI)是一種利用深度學習技術來創造新的數據或內容的人工智慧。例如,ChatGPT就是一種生成式AI,它可以根據用戶的輸入生成自然語言的回應。生成式AI的應用越來越廣泛,但也帶來了數據安全和隱私的風險。

生成式AI的數據洩露風險主要發生在員工將敏感數據插入這些應用的時候。這些數據會成為AI的訓練集的一部分,也就是說,AI的算法會從這些數據中學習,並將它們納入到生成未來回應的過程中。這樣就有兩個主要的危險:第一,數據立即洩露的風險。敏感信息可能會在生成式AI對另一個用戶的查詢的回應中被暴露出來。例如,一個員工將公司的源代碼貼到生成式AI中進行分析。後來,另一個用戶可能會收到該代碼的一部分作為生成式AI的回應,從而損害了其機密性。
第二,數據長期保留的風險。即使數據沒有立即被暴露,它也可能會在AI的訓練集中存儲不定期。這就涉及到數據存儲的安全性,數據的訪問權限,以及防止數據未來洩露的措施等問題。

根據LayerX的用戶數據研究,員工使用生成式AI應用的比例在2023年增加了44%,其中6%的員工每周將敏感數據貼到這些應用中。這些敏感數據包括業務財務信息,源代碼,業務計劃,以及個人身份信息等。這些數據的洩露可能會對業務策略,內部知識產權,第三方機密性,以及客戶隱私造成不可挽回的損害,甚至導致品牌受損和法律問題。

傳統的數據洩露防護(DLP)解決方案是設計用來防止數據洩露的工具。這些工具多年來成為了網絡安全策略的基石,它們可以保護敏感數據免受未經授權的訪問和傳輸。然而,這些工具對於生成式AI的數據洩露風險卻無能為力,因為它們無法監控或阻止員工將數據貼到生成式AI應用中。

為了解決這個問題,LayerX推出了一種基於瀏覽器擴展的解決方案,它可以在員工將數據貼到生成式AI應用之前,對數據進行分析和分類,並根據預先設定的策略,對數據進行遮蔽,警告,或阻止。這樣,企業就可以在不影響生成式AI應用的生產力的同時,確保數據的安全和合規。

生成式AI是一種具有巨大潛力的技術,但也需要嚴格的安全措施來防止數據洩露風險。通過使用LayerX的瀏覽器擴展解決方案,企業可以充分利用生成式AI的優勢,同時保護自己的數據資產。

詳情請看:

Generative AI Security: Preventing Microsoft Copilot Data Exposure
      edit