Image
全國(guó)統一服務(wù)熱線(xiàn)
0351-4073466

“萬模裸奔”,DeepSeek正颠覆網絡安(ān)全行業遊戲規則


編輯:2025-02-28 17:15:58

對于企業而言,AI既是提升生産(chǎn)力的強大工(gōng)具(jù),同時也為(wèi)攻擊者和惡意内部人員提供了“大殺器”。随着生成式AI(例如ChatGPT和DeepSeek)在企業和政府機構中(zhōng)的廣泛應用(yòng)和不安(ān)全部署,“萬模裸奔”産(chǎn)生的數據安(ān)全風險已經到了失控的邊緣。
2025年是AI安(ān)全元年,首席信息安(ān)全官(CISO)們必須提前做好準備,應對“萬模裸奔”引發的數據安(ān)全危機。

警惕數據的“智能(néng)化洩漏”

與傳統IT系統不同,生成式AI引入了全新(xīn)的攻擊媒介,可(kě)導緻數據洩漏、業務(wù)中(zhōng)斷甚至法律風險例如:
  • 提示注入:惡意行為(wèi)者操縱AI提示來改變輸出或暴露敏感數據。

  • 數據中(zhōng)毒:對手破壞訓練數據以影響模型行為(wèi)。

  • 幻覺:人工(gōng)智能(néng)産(chǎn)生虛假或誤導性的信息,可(kě)能(néng)會損害決策過程。

由于生成式AI的發展和普及速度很(hěn)快,CISO和安(ān)全團隊往往缺乏足夠經驗和技(jì )能(néng)應對AI安(ān)全風險,在威脅建模和風險評估方面存在較大差距。
面對洶湧的生成式AI浪潮,企業*擔心的還是數據安(ān)全問題(例如商(shāng)業機密數據被競争對手獲取)。以*近的一起案例為(wèi)例:一名(míng)員工(gōng)利用(yòng)AI助手訪問了企業内部數據庫,竊取了包含客戶銷售記錄和産(chǎn)品使用(yòng)情況的敏感數據,并将其帶到新(xīn)的雇主處使用(yòng)。
這正是生成式AI放大數據洩露風險的典型例子。據Gartner*新(xīn)研究,微軟365 Copilot、Salesforce等基于生成式AI的工(gōng)具(jù)正成為(wèi)企業提升生産(chǎn)力的利器,但其對數據安(ān)全的威脅亦呈指數級攀升。近60%的受訪者認為(wèi),過度共享、數據洩漏和内容蔓延是企業部署人工(gōng)智能(néng)助手時面臨的*大風險。
Salesforce首席執行官Marc Benioff在2024年10月公(gōng)開批評了Microsoft的Copilot,稱其為(wèi)“令人失望的Clippy 2.0”。他(tā)引用(yòng)了Gartner的報告,強調了Copilot在數據過度共享和安(ān)全方面的問題,導緻許多(duō)組織推遲了實施計劃。

AI引爆“權限炸彈”

研究顯示,企業近99%的訪問權限處于閑置狀态,其中(zhōng)過半屬于高風險權限。傳統安(ān)全管理(lǐ)中(zhōng),冗餘權限本已是重大隐患,而生成式AI的介入使問題急劇惡化,甚至會引爆這些“權限炸彈”,以幾何級數放大數據安(ān)全風險。例如,Microsoft Copilot可(kě)以訪問所有(yǒu)用(yòng)戶權限範圍内的數據,即使用(yòng)戶本人并未意識到自己擁有(yǒu)這些權限。這意味着,敏感數據可(kě)能(néng)通過AI對話被無意或惡意洩露。

AI改寫網絡攻擊遊戲規則:從技(jì )術滲透到提示注入

除了增加數據洩漏風險外,生成式AI還在改寫網絡攻擊的遊戲規則。傳統黑客攻擊通常需要攻擊者耐心滲透系統,探索内部環境,生成式AI徹底颠覆了傳統攻擊模式。攻擊者無需再耗時滲透系統,隻需向AI助手提問(提示注入)即可(kě)獲取敏感信息或訪問憑證,進而實施橫向移動。當前AI對網絡安(ān)全的六大核心挑戰包括:
  • 員工(gōng)數據訪問權限過度寬松

     

  • 敏感數據标識缺失或錯誤

     

  • 内部人員通過自然語言快速定位并外洩數據

     

  • 攻擊者利用(yòng)AI挖掘權限升級路徑

     

  • 人工(gōng)難以及時校準動态權限

     

  • AI持續生成新(xīn)型敏感數據

盡管這些風險并非新(xīn)問題,但AI的介入極大地降低了信息洩露的門檻,使得攻擊者比以往更容易大規模*率利用(yòng)企業的安(ān)全漏洞。

萬模裸奔:部署開源模型的風險

随着開源AI模型的興起,許多(duō)企業選擇部署如DeepSeek等模型,以期在本地環境中(zhōng)利用(yòng)AI技(jì )術。然而,這種做法也帶來了新(xīn)的安(ān)全隐患。
根據奇安(ān)信近日發布的資産(chǎn)測繪監測結果,在8971個Ollama(一款開源大語言模型服務(wù)工(gōng)具(jù))大模型服務(wù)器中(zhōng),有(yǒu)6449個活躍服務(wù)器,其中(zhōng)88.9%都“裸奔”在互聯網上,面臨數據洩漏、服務(wù)中(zhōng)斷和濫用(yòng)等嚴重威脅。私有(yǒu)化部署開源模型的風險主要有(yǒu)以下幾點:

1

暴露的服務(wù)器風險

近期,有(yǒu)攻擊者通過自動化腳本掃描暴露的DeepSeek服務(wù)器,惡意占用(yòng)大量計算資源,導緻部分(fēn)用(yòng)戶服務(wù)器崩潰。

2

缺乏安(ān)全認證

一些工(gōng)具(jù)(例如Ollama)在默認情況下未提供安(ān)全認證功能(néng),導緻許多(duō)部署DeepSeek的用(yòng)戶忽略了必要的安(ān)全限制,未對服務(wù)設置訪問控制。這使得任何人都可(kě)以在未經授權的情況下訪問這些服務(wù),增加了數據洩露和服務(wù)中(zhōng)斷的風險。

3

模型固件加密不足

在本地化部署中(zhōng),模型核心邏輯需要嵌入硬件固件,以防止惡意篡改或逆向工(gōng)程。如果缺乏适當的加密措施,攻擊者可(kě)能(néng)會利用(yòng)這些漏洞,進一步威脅系統的安(ān)全性。

4

數據合規性問題

開源模型的訓練數據來源複雜,可(kě)能(néng)涉及版權和隐私問題(甚至導緻嚴厲監管處罰的内容安(ān)全問題)。企業在使用(yòng)這些模型時,需要确保數據來源合法,并在部署前進行*的安(ān)全測試,以避免潛在的法律和安(ān)全風險。

構築新(xīn)型AI防禦體(tǐ)系的八大關鍵措施

要想降低AI帶來的數據安(ān)全風險,CISO們必須夯實數據管理(lǐ)基礎,方可(kě)引入AI工(gōng)具(jù)。在部署基于大模型的AI工(gōng)具(jù)(無論是開源還是閉源,雲端還是本地私有(yǒu)部署)之前,企業需要明确所有(yǒu)敏感數據的存儲位置,并具(jù)備識别風險、修複安(ān)全漏洞和優化權限配置的能(néng)力。
企業部署DeepSeek等開源模型時,需重視和采取以下主動防禦措施:
  • 定期進行安(ān)全審計:對模型和相關系統進行定期的安(ān)全檢查,及時發現并修複潛在的漏洞。嚴格審核第三方AI模型的訓練數據來源與隐私政策,防範數據主權争議。

     

  • 彌補AI安(ān)全技(jì )能(néng)鴻溝:鼓勵員工(gōng)獲取AI安(ān)全相關認證(如CAISP、CISSP-AI),提升專業技(jì )能(néng),同時通過模拟攻擊演練(如紅隊/藍隊演習)增強實戰能(néng)力。建立内部培訓計劃,開發針對AI安(ān)全的技(jì )術培訓課程,涵蓋模型漏洞分(fēn)析、數據隐私保護、算法偏見識别等内容,培養既有(yǒu)AI技(jì )術背景又(yòu)有(yǒu)安(ān)全意識的複合型人才。

     

  • 加強員工(gōng)安(ān)全意識培訓:AI大大提升了攻防兩端的能(néng)力(例如DeepSeek極大提升了*軟件和網絡釣魚的中(zhōng)文(wén)水平),這意味着企業需要緊急追加預算提高員工(gōng)的安(ān)全意識水平,确保他(tā)們了解并識别那些足可(kě)以假亂真的釣魚信息、AI幻覺信息,以及學(xué)習安(ān)全使用(yòng)和管理(lǐ)AI工(gōng)具(jù)。

     

  • 遵守數據合規性要求:在使用(yòng)開源模型時,确保遵守相關的數據保護法律法規,避免侵犯用(yòng)戶隐私或知識産(chǎn)權。

在AI工(gōng)具(jù)正式投入使用(yòng)後,安(ān)全管理(lǐ)人員需要采取以下持續監控措施:
  • 權限動态治理(lǐ)。實施*小(xiǎo)權限原則,定期審計員工(gōng)權限範圍,确保AI工(gōng)具(jù)訪問權限與用(yòng)戶實際需求嚴格匹配,杜絕“權限閑置即風險”的隐患。

     

  • 數據智能(néng)分(fēn)類。通過自動化工(gōng)具(jù)全域掃描敏感數據,建立精(jīng)細化标簽體(tǐ)系,為(wèi)數據防洩露(DLP)策略提供可(kě)執行的分(fēn)類基準。

     

  • 人機行為(wèi)監控。構建AI操作(zuò)審計機制,實時監測異常提示詞(Prompts)、文(wén)件訪問模式等行為(wèi)特征。例如,某員工(gōng)若頻繁要求AI彙總客戶清單并關聯财務(wù)數據,系統需立即觸發告警。

     

  • 影子AI可(kě)視化。通過CASB(雲訪問安(ān)全代理(lǐ))監控數百個AI應用(yòng),識别高風險工(gōng)具(jù)并建立禁用(yòng)清單(如金融行業100%屏蔽未授權AI)。

生成式AI快速普及帶來的數據安(ān)全威脅正在引發一場企業網絡安(ān)全革命,導緻企業安(ān)全體(tǐ)系的大規模範式轉移。CISO必須意識到:當AI工(gōng)具(jù)能(néng)瞬間調用(yòng)全網數據時,傳統的靜态防禦體(tǐ)系已形同虛設。唯有(yǒu)将安(ān)全文(wén)化、數據治理(lǐ)、權限管控與行為(wèi)分(fēn)析深度耦合,方能(néng)駕馭AI這把“效率與風險并存的大殺器”。要想因對包括影子AI在内的生成式AI帶來的數據安(ān)全危機,CISO亟需開展一場融合技(jì )術、管理(lǐ)與文(wén)化的系統性變革。

 

Image
Image
版權所有(yǒu):山(shān)西科(kē)信源科(kē)技(jì )股份有(yǒu)限公(gōng)司
咨詢熱線(xiàn):0351-4073466 
地址:(北區(qū))山(shān)西省太原市迎澤區(qū)新(xīn)建南路文(wén)源巷24号文(wén)源公(gōng)務(wù)中(zhōng)心5層
           (南區(qū))太原市小(xiǎo)店(diàn)區(qū)南中(zhōng)環街(jiē)529 号清控創新(xīn)基地A座4層
Image
©2021 山(shān)西科(kē)信源信息科(kē)技(jì )有(yǒu)限公(gōng)司 晉ICP備15000945号 技(jì )術支持 - 資海科(kē)技(jì )集團