DeepSeek火爆背后:个人隐私“陷阱”与应对策略

DeepSeek等生成式人工智能大模型迅速崛起引发了新一波用户对隐私保护和数据安全的强烈关注。个人信息作为数字时代的关键资产,其保护问题不仅关乎每个人的隐私权和信息安全,也牵涉到社会的稳定和信任体系的建立。

一、我国生成式人工智能的发展现状

自2022年11月ChatGPT发布以来,国产大模型迅速崛起,大致经历三个发展节点。

国内打响AI“百模大战”。2023年AI大模型、AIGC技术引爆全球,包括百度(文心一言)、阿里(通义千问)、华为(盘古3.0)、抖音(豆包)、腾讯(混元)等科技巨头,以及一批初创企业、研究机构,纷纷投身到大模型开发浪潮,开启了“百模大战”局面。据《每日经济新闻》不完全统计,截至去年4月底,国内共计推出了305个大模型。

DeepSeek重塑全球AI生态。2025年1月,DeepSeek发布DeepSeek R1模型,以开源姿态横空出世,凭借蒸馏技术实现从大型复杂模型到小型高效模型的知识迁移,媲美全球顶尖AI模型。DeepSeek的火爆出圈,重新洗牌“百模大战”,同时其带来的开源模式冲击波也重塑了全球AI竞争规则,带来了一股“开源风”。

垂类大模型开启竞速模式。DeepSeek降低了大模型的普惠门槛,使得通用大模型的商业化进程进入深水区,目前B端市场的突破关键在于构建具备行业know-how和技术领先的垂类大模型。2025年两会政府工作报告中,“人工智能+”行动纲领再次加码,强调要支持大模型广泛应用,加快推进AI垂类应用。百度、阿里、华为等头部科技企业的发力点开始从通用大模型,转向行业/领域等垂直大模型,如百度发布国内首个“产业级”医疗AI大模型——灵医大模型;阿里云推出通义点金(金融)、通义仁心(医疗)、通义法睿(法律)等八大行业模型。

二、AI大模型发展存在的安全问题

在这场AI技术革命的浪潮中,中国企业的快速跟进与创新突破令人瞩目,但同时也面临着数据安全的严峻挑战。

一是模型开发阶段的“算法黑箱”问题。在技术开发中,人工智能所采用的多层级神经网络算法导致的认知不透明性,使得开发者本身也无法详细了解大语言模型到底掌握了何种自然语言统计规律。这种技术局限,意味着生成式AI大模型在开发的预训练过程中对个人信息的处理也同样被置于“算法黑箱”之中,从而难以辨析模型开发阶段个人信息数据的权利状态与隐私风险。

二是模型训练阶段的“语料来源”问题。模型训练使用的超大体量训练数据中包含了大量的个人信息,其一方面来自开发者购买或者通过爬虫技术获取的数据;另一方面来自模型开发方在提供服务时获取的用户真实的人机交互数据。语料数据来源不清会引发个人信息侵权、数据标注和使用不当等一系列合规问题。

三是模型应用阶段的“隐私泄露”问题。在使用阶段,用户无意间输入的个人信息会被模型存储并应用于后续生成的内容,即模型的“记忆效应”会贯穿模型整个周期,引发个人隐私泄露。尽管某些数据可能经过去标识化处理,但通过多模态数据结合训练、特征交叉推理等手段,也能精确地揭示出个人的敏感信息。此外,针对模型漏洞,攻击者可通过精心设计的提示词(prompt)注入攻击,诱导模型输出其处理的敏感数据,从而获取用户隐私信息。

四是模型开源阶段的“恶意攻击”问题。自DeepSeek“引爆”开源生态以来,阿里巴巴、百度、字节跳动、深度求索、智谱等纷纷开启开源模式。然而据公开报告,88.9%的大模型服务器目前处于“裸奔”状态,无需任何认证即可随意访问,个人数据被恶意获取和利用的风险日益增加。此外,在DeepSeek本地化部署的浪潮下,恶意工具包、API接口过度开放等导致的隐私泄露事件层出不穷,如2025年1月,攻击者通过非法上传DeepSeek恶意依赖包引发供应链攻击,大量用户凭据遭遇泄露。

五是模型退役阶段的“数据处理”问题。模型退役时,存储系统中可能残留大量包含个人信息的训练数据。虽然模型退役阶段的数据处理需要符合《个人信息保护法》等相关法律法规的要求,但是企业若未能充分进行隐私评估和定期进行退役数据的合规性审查等安全措施,将会大大增加个人信息被窃取或误用的风险。此外,模型退役后官方一般不会再维护该项目,对后续陆续发现的 BUG 也不会出修复版本,若该模型API接口尚未关闭,有问题的组件仍可以正常使用,将提升个人隐私泄露风险。例如,OpenAI表示,4月30日起GPT-4将被GPT-4o“完全替代”,但GPT-4将继续通过API提供使用。

三、国外个人信息保护的监管实践

面对AI大模型发展过程中暴露出的多重隐私风险,全球范围内正在形成“发展与治理并重”的监管共识。各国和地区基于不同的法律传统和产业特点,探索出各具特色的治理路径。

欧盟:个人信息保护“统一立法+行业强监管”

2018年5月,欧盟委员会发布的《通用数据保护条例》(GDPR)正式施行,取代1995年的《数据保护指令》,成为欧盟境内个人数据保护的统一规则。2023年12月,欧盟发布《数据法案》(Data Act,将于2025年9月12日生效),进一步规范数据的访问和使用,加强个人数据保护。2024年8月,《人工智能法案》(AIA,2021年4月发布)正式生效,提出“禁止使用高风险的人工智能系统,包括不得社交评分和无差别人脸数据采集”,同时明确提出通用AI模型的合规履行路径。从立法模式可以看出,欧盟采用横向统一立法,《通用数据保护条例》《数据法案》《人工智能法案》共同构成AI时代下协同监管的密网。随着一系列法规的相继落地,欧盟的监管逐步发展成“数据+硬件+算法”的“布鲁塞尔标准”,通过领先制定标准规则的强监管要求,促使境外企业为欧盟市场单独开发合规版本,倒逼全球供应链调整,从而高度保护个人隐私安全。

美国:个人隐私保护“分散式立法+行业自律”

美国对与个人信息有关的权益保护主要处于隐私保护范畴,至今发展出发达的隐私权保护体系,相继出台了多部法律加强个人数据监管。但是,美国联邦层面目前没有统一的个人数据保护法案,而是采取了行业自律与州分散立法相结合的模式。20世纪60年代至21世纪初,美国通过行业分散式专门立法,对金融、健康、电信、教育以及儿童在线隐私等特定领域的数据保护进行规定。直到2022年7月,美国众议院能源和商业委员会通过了修订版《美国数据隐私和保护法》(ADPPA),该项立法草案将联邦标准引入数据隐私保护领域,虽然目前仍未全面通过并发布,但对于构建全美范围内个人数据保护的国家框架具有重要意义。在州级层面,自2018年《加州消费者隐私法案》(CCPA)颁布以来,州级隐私立法活动持续上升,到2025年,全美将有8项新的州级隐私法生效,使全美范围内的隐私法律总数增至25项。虽然目前美国在个人隐私保护方面缺乏国家级法律,但随着各州立法的不断推进和公众对隐私保护意识的提高,未来联邦层面可能会出台更统一的隐私保护法规。

英国:个人数据保护“多项立法+监管创新”

英国将个人数据安全贯穿至英国数据安全监管立法的始终,自1981年《有关个人数据自动化处理之个人保护公约》(“欧洲公约”)之后,英国政府为强化对个人数据安全的保护陆续出台近10部法规。2018年5月,英国根据GDPR出台新版《数据保护法》(DPC),且在脱欧后进行了修订并于2021年1月1日开始实施。2023年3月,英国提出了《数据保护及数字信息(第2号)法案》,对脱欧前的《英国通用数据保护条例》(UK GDPR)进行了修订,以适应脱欧后的英国数据保护需求。在监管方面,早在2015年英国就率先提出“监管沙盒”概念,创新人工智能数据监管模式,允许企业用真实的消费者信息在市场上测试创新,以此实现在保护创新的同时不会削弱消费者权益。2023年8月,英国金融行为监管局(FCA)将数字沙盒永久开放,实现了人工智能技术创新发展与数据隐私保护之间的协同。可以看出,英国政府注重平衡保护与创新的关系,以确保数据能够继续从欧盟流向英国企业,促进数字经济的发展。

四、国内个人信息保护的监管趋势

在全球数据治理格局中,中国走出了一条独具特色的发展道路。不同于欧美英等地的“统一立法”模式、“监管沙盒”机制,中国基于庞大的互联网用户基础和快速发展的数字经济,构建了立法引领、技术赋能、多元共治的三维治理体系。从2012年首次提出网络信息保护,到2021年《个人信息保护法》实施,再到2025年推出合规审计制度(《个人信息保护合规审计管理办法》),中国用十年时间完成了从跟跑到并跑,最终形成自身特色的跨越式发展。

最新出台的《审计办法》标志着我国个人信息保护监管从“立法完善”正式迈入“执法深化”阶段。一是双轨治理,政府监管+行业自律。《审计办法》构建了一个“企业自查+第三方审计+行政监管”的三层治理体系,即国家网信部门和相关保护部门负责监管,企业需要定期自查,必要时委托专业机构进行审计。二是靶向监管,明确数量门槛。《审计办法》提高了审计触发门槛、量化风险标准、限缩审计客体,使监管部门更聚焦于涉及个人数据量庞大的高风险主体,从而避免“撒网式监管”导致的资源浪费。三是合规转变,从被动到主动。《审计办法》颠覆了传统的监管模式,将“事后惩罚”监管重心前移至“事前预防”阶段,迫使企业从“被动合规”转向“主动合规”,倒逼大型互联网企业建立内部的合规审计团队,引入外部独立监督机构,并定期对其数据处理活动进行全面审查。四是生态构建,“单一监管”到“多元共治”。《个人信息保护法》明确了国家网信部门统筹、多部门协同的监管框架。《审计办法》进一步构建了“政府、市场、社会”共治的生态体系,形成“法律约束、市场驱动、社会监督”的治理闭环。

参考文献:

[1]赛博研究院.《个人信息保护合规审计管理办法》深度解析:新规重点及合规策略[EB/OL].(2025-02-17)

[2]黄锫. 生成式AI对个人信息保护的挑战与风险规制[J].现代法学,2004(4):101-115.

[3]徐明. 生成式人工智能大模型的安全挑战与治理路径研究[J].信息通信技术与政策,2025,51(1):10-19.

[4]潘松、朱豆豆.《个人信息保护合规审计管理办法》及指引八大核心修订和监管趋势解读[EB/OL].(2025-02-17)

[5]张立彬. 美英新个人信息保护政策法规的考察与借鉴[J].情报理论与实践,2020,43(6):200-206.

[6]Liu, K. Laws, Regulations and Regulatory System of Personal Data Privacy Protection in the United States. Journal of Science and Technology for Development,2019, 35(4), 4-11.

[7]European Data Protection Law Review. (n.d.). GDPR enforcement trends and global data protection implications. European Data Protection Law Review.

文章作者:赛博研究院咨询经理 狄冉

声明:本文来自赛博研究院,稿件和图片版权均归原作者所有。所涉观点不代表东方安全立场,转载目的在于传递更多信息。如有侵权,请联系rhliu@skdlabs.com,我们将及时按原作者或权利人的意愿予以更正。

上一篇:英国软件厂商Logezy关键数据库公网暴露,泄露近800万条医护职工敏感信息

下一篇:甲方主动暂停核心业务系统,以实施安全应急响应(收费损失超百万元)