摘要
随着当下AI热潮兴起,人工智能领域的网络安全问题日益突出。从技术层面来看,以DeepSeek大模型为例,由于开源大型语言模型服务工具Ollama默认无安全认证功能,众多部署用户忽视安全限制,导致大量服务器“裸奔”网络。在中国的5669个服务器中,88.9%的活跃服务器可被随意调用,已出现恶意占用计算资源、导致服务器崩溃的事件。
在企业安全重视度方面,AI聚合平台OmniGPT遭黑客“Gloomer”入侵,3万名用户隐私信息及3400万条对话记录泄露,涉及生活日常、账号等多类敏感信息,凸显平台安全防护的缺失。
针对个人用户的欺骗案例也层出不穷,仿冒DeepSeek的安卓手机木马病毒诱导用户点击更新、授予权限,进而窃取隐私信息,甚至用于电信网络诈骗,且还出现多个仿冒DeepSeek的病毒样本文件。
人工智能技术的爆发式增长正重塑全球产业格局,但在技术迅猛发展的背后,安全风险却呈指数级攀升。近期多起安全事件表明,AI组件漏洞频发、企业安全防护缺位、用户安全意识薄弱,已成为威胁技术落地的“三重门”。本文以DeepSeek开源框架暴露漏洞、OmniGPT用户数据泄露、仿冒DeepSeek木马病毒为例,揭示AI领域亟待填补的安全鸿沟,并提出系统性防护建议。
近期AI领域相关的典型网络安全事件 (一) DeepSeek服务器“裸奔”出现漏洞 DeepSeek大模型在各领域的迅速流行,使得越来越多的公司和个人选择将其本地部署。然而,由于主流部署工具Ollama在默认情况下未提供安全认证功能,导致许多用户忽略了必要的安全限制,未对服务设置访问控制。国内安全平台监测发现,8971个运行了Ollama大模型框架的服务器中,有6449个活跃服务器,其中88.9%的服务器“裸奔”在互联网上,导致任何人无需认证即可随意调用、在未经授权的情况下访问这些服务。这不仅增加了服务被滥用的风险,还可能导致数据泄露和服务中断,甚至可以发送指令删除所部署的DeepSeek、Qwen等大模型文件。已有黑客通过自动化脚本扫描到这些“裸奔”的服务器,并恶意占用大量计算资源,盗取算力并导致部分用户服务器崩溃。 (二) OmniGPT聚合类AI平台遭黑客入侵 海外AI聊天聚合平台OmniGPT遭到黑客组织“GreenBlood”(绿血)的网络攻击。黑客通过SQL注入漏洞获取了OmniGPT平台的数据库访问权限,并下载了约3400万条聊天记录。 据悉,这一OmniGPT实际上是一款整合了各大厂商API的AI聚合平台,包含ChatGPT-4、Claude3.5、Perplexity、Gemini等模型,号称可提供团队协作工具、数据管理和图片分析等。 外媒调查团队分析黑客公开的平台隐私信息,发现黑客所述内容属实,这些隐私信息涉及用户生活日常、云盘分享链接,账号信息、账单信息和API密钥、学生文凭、超过8千个电子邮件地址等。聊天记录涉及用户的个人身份信息、聊天内容等敏感数据,给用户带来了巨大的隐私风险。 (三) 仿冒DeepSeek的手机木马病毒出现 近日,计算机病毒应急处理中心和计算机病毒防治技术工程实验室依托计算机病毒协同分析平台在我国境内捕获发现仿冒DeepSeek官方App的安卓平台手机木马病毒。 用户一旦点击运行仿冒App,该App会提示用户“需要应用程序更新”,并诱导用户点击“更新”按钮。用户点击后,会提示安装所谓的“新版”DeepSeek应用程序,实际上是包含恶意代码的子安装包,并会诱导用户授予其后台运行和使用无障碍服务的权限。同时,该恶意App还包含拦截用户短信、窃取通讯录、窃取手机应用程序列表等侵犯公民个人隐私信息的恶意功能和阻止用户卸载的恶意行为。 诱导用户“更新”、安装“带毒”子安装包、 授权其后台运行、授权其使用无障碍功能。 经分析研究,该恶意App为金融盗窃类手机木马病毒的新变种。网络犯罪分子很可能将该恶意App用于电信网络诈骗活动,诱使用户从非官方渠道安装仿冒DeepSeek的手机木马,从而对用户的个人隐私和经济利益构成较大威胁。 值得注意的是,除仿冒DeepSeek安卓客户端的“DeepSeek.apk”,计算机病毒协同分析平台还发现了多个文件名为“DeepSeek.exe”“DeepSeek.msi”和“DeepSeek.dmg”的病毒样本文件,由于DeepSeek目前尚未针对Windows平台和MacOS平台推出官方客户端程序,因此相关文件均为仿冒程序。 技术跃进中的安全失控:漏洞、轻忽与欺骗 开源组件“裸奔”暴露生态链脆弱性 DeepSeek大模型部署依赖的开源工具Ollama因默认无认证功能,导致全球近90%的服务器暴露于互联网,攻击者可随意调用服务甚至删除模型文件。这暴露出AI开发社区对基础设施安全的漠视——技术便利性优先于安全基线,默认配置的缺陷使攻击者轻易实现算力劫持与数据窃取。 企业数据保护机制形同虚设 OmniGPT平台被黑导致3400万条对话记录泄露,揭示AI聚合服务商对API整合安全的忽视。第三方模型接口的调用权限管理、用户隐私数据的加密存储、敏感信息(如API密钥)的隔离保护等环节均存在重大缺陷,使黑客可通过单一入口突破多层防线。 仿冒应用泛滥折射用户信任滥用 仿冒DeepSeek的木马程序通过伪造更新提示诱导用户安装,窃取短信、通讯录等隐私数据。此类攻击利用用户对AI品牌的技术信任,结合恶意代码隐蔽性升级(如滥用无障碍服务权限),形成针对个人终端的定向渗透链条。 公安部一所深圳服务中心观点 AI技术的革命性突破不应以牺牲安全为代价。从DeepSeek的配置疏漏到OmniGPT的数据泄露,警示业界需摒弃“重功能、轻安全”的短视思维。唯有将安全基因植入AI研发、部署与运营的全流程,方能真正释放技术创新红利。对于企业而言,安全投入不是成本,而是维系用户信任与技术生命线的战略投资。 (一) 安全与发展的再平衡:企业主导的防护体系构建 强化基础设施安全基线,对开源组件强制实施身份认证、访问控制与日志审计(如Ollama配置改造);建立AI模型部署前的漏洞扫描与渗透测试流程,避免“带病上线”。 构建数据安全纵深防御,采用零信任架构管理API调用,实施动态令牌认证与最小权限控制;对敏感数据实施端到端加密,分离存储用户隐私与模型训练数据。 严控供应链风险,对第三方组件(如开源框架、云服务)进行安全合规审查;建立仿冒应用监测机制,联合监管部门打击恶意软件传播渠道。 (二) 用户侧防御:警惕技术光环下的陷阱
企业作为AI技术落地的核心主体,需将安全防护前置至技术全生命周期:
个人用户需打破“AI即安全”的认知误区:仅从官方渠道下载AI应用,警惕诱导性更新提示;定期审查授权权限,关闭非必要的数据访问请求;对AI平台上传的数据进行脱敏处理,避免泄露生物特征、财务信息等敏感内容。
以上内容转自#广东计算机信息网络安全协会