Help net security發佈了一篇企業因隱私風險而禁止或限制使用 GenAI
GenAI 是一種利用深度學習和自然語言生成技術來創造各種內容的人工智慧應用。GenAI 可以幫助用戶寫出文章、詩歌、歌詞、代碼、笑話等,甚至可以模仿名人的風格和語氣。GenAI 聽起來很有趣和有用,但也帶來了一些隱私和安全的挑戰和風險。
根據思科的一項新研究,GenAI 被認為是一種與眾不同的技術,需要新的方法來管理數據和風險。該研究發現,企業對 GenAI 的使用有著高度的擔憂和限制。其中最主要的顧慮是 GenAI 可能威脅到組織的法律和知識產權(69%)和信息被公開或洩露給公眾或競爭對手的風險(68%)。因此,許多組織已經制定了一些控制措施來減少暴露:63% 的組織規定了哪些數據可以輸入 GenAI,61% 的組織限制了哪些員工可以使用 GenAI 工具,27% 的組織甚至暫時禁止了 GenAI 應用的使用。然而,仍有許多用戶在 GenAI 中輸入了一些可能引起問題的信息,例如員工信息(45%)或公司的非公開信息(48%)。
GenAI 的使用不僅影響了企業的隱私和安全,也影響了消費者的信任和忠誠。該研究指出,消費者對 GenAI 涉及他們數據的使用方式感到擔憂。然而,91% 的組織承認他們需要做更多的工作來向消費者保證他們的數據只被用於 GenAI 的預期和合法的目的。這與去年的水平相似,表明在這方面沒有取得太大的進展。組織的優先事項與個人的優先事項也不盡相同。消費者認為他們的首要需求是獲得關於他們的數據如何被使用的準確信息,並且不希望他們的數據被出售用於營銷目的。而當被問及同樣的問題時,企業則認為他們的首要任務是遵守隱私法律(25%)和避免數據泄露(23%)。這表明在透明度方面還有改進的空間,尤其是在 GenAI 應用中,因為它們的算法如何做出決策可能難以理解。
為了提高消費者對 GenAI 的信任,組織需要提供一些有力的證據來證明他們可以被信賴。該研究發現,94% 的受訪者表示,如果他們不能充分保護數據,他們的客戶就不會從他們那裡購買產品或服務。他們還表示,外部的隱私認證是他們購買決策的一個重要因素,有 98% 的受訪者表示這一點。這些數據是思科多年來隱私研究中最高的,再次證明了隱私與客戶信任和忠誠密不可分。這在 AI 時代更是如此,因為投資於隱私可以讓組織更好地利用 AI 並負責任地使用它。
總之,GenAI 是一種具有創新和潛力的技術,但也需要更多的隱私和安全的考量和管理。企業在使用 GenAI 時,應該遵循一些原則和規範,以保護自己和消費者的利益,並建立一個可持續和可信的 AI 生態系統。