跨境GenAI濫用,將引發40%的AI數據泄露
根據Gartner公司的數據,到2027年,超過40%的人工智能相關數據泄露將由跨境不當使用生成式人工智能(GenAI)造成。
終端用戶對GenAI技術的迅速采用已經超過了數據治理和安全措施的發展,由于支持這些技術所需的集中計算能力,引起了對數據本地化的擔憂。
Gartner副總裁分析師Joerg Fritsch表示:“由于監管不足,經常會發生意外的跨境數據傳輸,特別是當GenAI集成到現有產品中而沒有明確的描述或公告時。”“企業正在注意到員工使用GenAI工具生成的內容的變化。雖然這些工具可以用于經批準的業務應用程序,但如果將敏感提示發送到托管在未知位置的AI工具和API,則會帶來安全風險。”
全球AI標準化差距導致運營效率低下
人工智能和數據治理缺乏一致的全球最佳實踐和標準,導致市場分化,迫使企業制定針對特定地區的戰略,從而加劇了挑戰。這可能會限制他們在全球范圍內擴展業務并從人工智能產品和服務中受益的能力。
Fritsch表示:“由于本地化的人工智能策略,管理數據流和保持質量的復雜性可能導致運營效率低下。”“組織必須投資于先進的人工智能治理和安全,以保護敏感數據并確保合規性。這種需求可能會推動人工智能安全、治理和合規服務市場的增長,以及提高人工智能流程透明度和控制的技術解決方案。”
在AI治理成為全球使命之前,企業必須采取行動
Gartner預測,到2027年,人工智能治理將成為全球所有主權人工智能法律法規的要求。
Fritsch說:“無法整合所需治理模型和控制的組織可能會發現自己處于競爭劣勢,尤其是那些缺乏資源來快速擴展現有數據治理框架的組織。”
為了減輕AI數據泄露的風險(尤其是跨境GenAI濫用),并確保合規性,建議企業采取以下幾項戰略行動:
加強數據治理:企業必須確保遵守國際法規,并通過擴展數據治理框架來監控意外的跨境數據傳輸,以包括人工智能處理數據的指導方針。這包括在常規隱私影響評估中合并數據沿襲和數據傳輸影響評估。
建立治理委員會:成立委員會加強對人工智能的監督,確保人工智能部署和數據處理的透明溝通。這些委員會需要負責技術監督、風險和合規管理以及溝通和決策報告。
加強數據安全:使用先進技術、加密和匿名化來保護敏感數據。例如,在特定地理區域驗證可信執行環境,并在數據必須離開這些區域時應用差異隱私等先進匿名化技術。
投資TRiSM產品:規劃和分配針對AI技術的信任、風險和安全管理(TRiSM)產品和功能的預算。這包括人工智能治理、數據安全治理、及時過濾和修訂,以及非結構化數據的合成生成。Gartner預測,到2026年,應用AI TRiSM控制的企業將至少減少50%的不準確或非法信息,從而減少錯誤決策。
