目 录
国内立法监管动态
1.国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》
2.工信部等十部门发文规范人工智能科技活动伦理治理
3.国家药监局发布《关于“人工智能+药品监管”的实施意见》
4.国家发改委否决Meta数十亿收购Manus项目
5.全国首例AI模型侵权案:“变身漫画特效”案
6.涉利用人工智能生成模型侵犯著作权罪案:AI技术并非侵权“挡箭牌”
7.浙江判决首例AI“换脸”认证案
8.杭州中院开庭审理首例“AI智能体流量劫持”不正当竞争案
9.网信部门依法查处“剪映”App等生成合成内容标识违法问题网站平台
国外立法监管动态
1.法国拟立法推定AI“盗用”文化内容,倒置举证责任
2.英国立法强制ICO出台AI监管细则,儿童数据成焦点
3.美国NIST发布《关键基础设施中的可信人工智能配置文件》概念说明
4.美国FDA发出首份涉及AI的警告信:制药企业“盲目”使用AI生成文件遭查处
6.佛罗里达州总检察长就FSU枪击案扩大对OpenAI的调查,现已升级为刑事调查
7.联合国全球人工智能治理对话首次会议将于2026年7月在日内瓦举行
国内立法监管动态
1.国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》
2026年4月10日,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称“《办法》”),自2026年7月15日起施行。
国家网信办有关负责人表示,《办法》旨在促进人工智能拟人化互动服务健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
近年来,人工智能拟人化互动服务快速发展,在文化传播、适幼照护、适老陪伴等领域的创新应用不断涌现。与此同时,危害未成年人身心健康、影响网络信息安全等问题日益显现。出台《办法》,既是促进人工智能拟人化互动服务健康发展的重要要求,也是防范有关安全风险的现实需要。
《办法》践行以人为本、智能向善的理念,明确国家坚持发展和安全并重、促进创新和依法治理相结合的原则,鼓励人工智能拟人化互动服务创新发展,对人工智能拟人化互动服务实行包容审慎和分类分级监管;提出人工智能拟人化互动服务促进措施,明确支持技术研发创新,鼓励有序拓展文化传播、适老陪伴等相关领域应用;规定提供人工智能拟人化互动服务的基本要求,明确不得从事生成危害国家安全、荣誉和利益,煽动颠覆国家政权、推翻社会主义制度等内容的活动,规定人工智能拟人化互动服务提供者的安全管理义务;完善网络用户权益保护制度,规定人工智能拟人化互动服务提供者的未成年人、老年人权益保护和个人信息保护等义务。此外,《办法》还规定了安全评估、算法备案、指导推动人工智能沙箱安全服务平台建设等制度。
国家网信办有关负责人表示,人工智能拟人化互动服务的发展与治理需要政府、企业、社会、网民等多方参与,共同维护良好网络生态,促进人工智能向上向善。
来源:人民日报
全文链接:
https://www.cac.gov.cn/2026-04/10/c_1777558395078289.htm
2.工信部等十部门发文规范人工智能科技活动伦理治理
2026年4月2日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称“《办法》”),提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。
《办法》明确,开展人工智能科技伦理审查重点关注人类福祉、公平公正、可控可信等方面。包括训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性;是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息等。
《办法》还提出,促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。
来源:新华社
全文链接:
https://www.miit.gov.cn/jgsj/kjs/wjfb/art/2026/art_2995f16b28504ddcbb604e918eb15759.html
3.国家药监局发布《关于“人工智能+药品监管”的实施意见》
2026年4月2日,国家药监局发布《关于“人工智能+药品监管”的实施意见》(以下简称“《意见》”)。
《意见》包括总体要求、数智赋能重点监管场景、“人工智能+药品监管”基础支撑、组织实施四个部分。聚焦药品监管改革的重点任务,以药品监管现代化为目标,提出下一阶段监管数智化的七大重点方向。结合人工智能技术发展新趋势,提出筑牢“人工智能+药品监管”基础支撑的五项重点任务。
《意见》提出,到2030年,初步构建药品监管与人工智能融合创新体系,“人工智能+药品监管”运行管理机制基本形成,算力支撑底座更加集约高效,形成满足监管智能化需要的高质量数据集、垂直大模型和智能体,人工智能在审评审批、监督检查、检验监测、政务服务等场景中有效应用,人机协同效率显著提升,全生命周期数智化监管能力迈上新台阶。到2035年,基本形成数智驱动、智能敏捷、自主可控、生态协同的智慧化药品安全治理新格局。
《意见》的发布,是国家药监局贯彻落实党中央、国务院关于全面深化改革和深入实施“人工智能+”行动的重要举措,将有效推进人工智能在“两品一械”全生命周期监管中的创新应用,为保障公众用药安全、促进产业高质量发展注入强大动能。
来源:经济日报
全文链接:
https://www.nmpaic.org.cn/yjzcfg/202604/t20260402_429648.html
4.国家发改委否决Meta数十亿收购Manus项目
2026年4月27日,外商投资安全审查工作机制办公室(国家发展改革委)发布《对外资收购Manus项目作出安全审查决定》,依法依规对外资收购Manus项目作出禁止投资决定,要求当事人撤销该收购交易。截至发稿,Manus方面暂未发表回应。
相关事件起始于2025年12月30日,Manus官方宣布“Manus即将加入Meta”,数十亿美元的收购价格使其成为Meta历史上第三大规模收购案。但该笔收购案的相关流程与法律漏洞,使其触及我国外资安全审查红线。2026年1月8日,商务部新闻发言人何亚东在回应有关审查Meta收购Manus的提问时说,中国政府一贯支持企业依法依规开展互利共赢的跨国经营与国际技术合作。需要说明的是,企业从事对外投资、技术出口、数据出境、跨境并购等活动,须符合中国法律法规,履行法定程序。商务部将会同相关部门对此项收购与出口管制、技术进出口、对外投资等相关法律法规的一致性开展评估调查。
Manus的核心AI技术是否属于《中国禁止出口限制出口技术目录》,特别是2025年7月修订版中关于“信息处理技术”的控制要点。技术出口方面风险在于在中国研发的核心技术(比如AI智能体组件、算法),如果没有拿到出口许可证,是否通过人员调动、代码共享或业务迁移等方式,实际上把限制或禁止类技术交给了境外的公司(包括新加坡的公司或Meta)。如存在,这可能直接违反了需要许可才能出口技术的规定。其次,Manus的产品训练时曾使用大量中国境内的数据,如果该等数据包含中国居民的个人信息,则Manus将产品和技术转让给境外公司还可能会有数据出境的合规问题。
严格来看,Manus迁册新加坡之时,很有可能已触碰技术出口管制的红线,而Meta的巨额收购不过是将这一隐性风险置于聚光灯下的“放大镜”。监管动作背后更深层的逻辑在于政策导向的纠偏——面对高关注度的舆情,监管层也需要表明态度,明确监管立场与政策导向,避免对可能存在的不当行为产生默示的激励效应。此次审查不仅是个案合规性的厘清,也是进一步完善相关合规体系的建设与执法尺度,阻断核心技术资产流失的通道,确立国家对于高价值科创企业跨境流动的主权管辖与引导权。
来源:第一财经
5.全国首例AI模型侵权案:“变身漫画特效”案
2026年4月23日上午,北京市朝阳区人民法院召开新闻通报会,系统梳理2023年至2025年度知识产权审判护航区域高质量发展的实践成果。其中,全国首例保护人工智能模型结构和参数的案件获评2025年人民法院反不正当竞争典型案例、北京法院参阅案例。
2020年6月,原告某科技公司在其运营的短视频App上线“变身漫画特效”,可将用户实时拍摄的照片、视频按真人比例重构五官并转换为漫画风格。同年8月,被告某技术公司上线“少女漫画特效”,形成的漫画形象、视频与原告特效在视觉效果上高度一致。原告遂以被告抄袭其特效模型结构和参数、构成著作权侵权及不正当竞争为由诉至法院。
法院经审理认为,两特效成像效果的相似性使“少女漫画特效”构成对“变身漫画特效”的实质替代,被告行为造成对原告竞争利益的实质损害,构成不正当竞争,遂判决被告赔偿原告经济损失及合理开支共计160万元。二审维持原判。
法院指出,该案裁判明确,经营者通过数据训练、优化调校等方式形成的人工智能模型参数与结构,能够为其带来创新优势和经营收益,属于反不正当竞争法所保护的竞争利益,对未来人工智能模型的保护和类案处理具有重要意义。
来源:北京日报
6.涉利用人工智能生成模型侵犯著作权罪案:AI技术并非侵权“挡箭牌”
2026年4月22日,北京法院知识产权司法服务保障新质生产力发展新闻发布会召开。北京市高级人民法院民三庭庭长张晓津介绍了入选典型案例的“涉利用人工智能生成模型侵犯著作权罪案”。在该案中,被告单位某电子商务公司法定代表人罗某某与被告人姚某某共谋,在未经权利人许可的情况下,使用他人美术作品制作拼图,并通过姚某某在抖音、小红书平台分别开设的2家名为“Cno拼图馆”的电商店铺销售牟利。2024年5月,被害人张某发现本人原创插画作品被侵权后报案。经查,被告人共售出涉嫌侵权拼图产品3000余件,非法经营数额共计人民币27万余元。
一审法院经审理认为,被告单位某电子商务公司、被告人罗某某等以营利为目的,未经著作权人许可,复制发行其美术作品,有其他严重情节,被告单位及四名被告人的行为均构成侵犯著作权罪,依法应予惩处。其中,被告单位某电子商务公司被判处罚金人民币十万元、被告人罗某某、姚某某分别被判处有期徒刑一年六个月,并处罚金人民币六万元,被告人李某、王某分别被判处缓刑,并处罚金人民币二万五千元。
该案典型意义在于,明晰了人工智能技术应用的合法边界,明确了AI技术并非侵权“挡箭牌”,以AI为工具未经许可复制、发行他人原创美术作品并牟利的行为,符合侵犯著作权罪的构成要件,清晰界定了单位犯罪与共同犯罪的认定标准,严厉打击了“盗图——AI加工——电商销售”的全链条侵权模式,有力震慑了数字经济时代的新型知识产权犯罪。
来源:中国青年网
7.浙江判决首例AI“换脸”认证案
2026年4月23日,在“守护创新 智引未来”新闻发布会上,杭州市中级人民法院通报浙江省首例涉AI伪造人脸通过活体认证的公益诉讼案,判决两被告在国家级媒体上公开赔礼道歉,并支付公益损害赔偿金。
经查,两名不法分子先通过网络黑市等非法渠道,批量获取他人手机号、头像照片和身份证信息。利用AI深度学习算法,识别照片中的人脸要素信息,不断提取人脸要素信息训练建模,批量合成动态人脸验证视频。之后,二人在作案手机中安装特殊的虚拟相机应用软件,进行虚假认证视频,用户账号信息一览无余。二人收集用户真实姓名、联系电话、收货地址、购物信息等,明码标价出售。此外,二人还利用盗取的身份信息,为某些交友软件账号完成实名认证绑定,将完成实名认证的账号售出获利。
杭州中院一审认为,上述行为侵害众多不特定社会主体的个人信息权益,损害相关领域社会公共利益,构成侵权。“人脸等生物识别信息,应受到最严格的保护。”本案主审法官、杭州中院副院长池海江表示,个人信息侵权行为往往涉及不特定多数人的权益,会对社会公众的人格尊严、财产安全和隐私权造成损害,更破坏数字化时代弥足珍贵的社会信任秩序。该案将“破坏社会信任秩序”纳入公共利益损害范畴,实现司法保护从个体救济向社会系统信任维护的跨越。
来源:中国青年报
8.杭州中院开庭审理首例“AI智能体流量劫持”不正当竞争案
2026年4月23日,杭州市中级人民法院公开开庭审理首例“AI智能体流量劫持”不正当竞争案,聚焦输入法内置大模型跨应用引流争议。
该案中,原告是一家科技公司,其开发和运营的“K智能体”兼具搜索、AI创作、AI生图改图等多项AI功能。原告诉称,被告输入法App内置“W智能大模型”,在用户使用原告产品时,通过搜索提示词自动跳转引流、遮挡界面,实施“流量截流”,构成不正当竞争,诉请三被告停止侵权、赔偿1亿元。
所谓“流量劫持”,是指未经其他经营者同意,利用技术手段进行诱导或强制,从而造成其他经营者用户流量的损失。被告则认为系提供多元服务选择,未侵害用户自主选择权,属正常市场竞争。
据悉,本案由杭州中院院长、一级高级法官唐学兵担任审判长。庭审围绕行为定性、竞争合法性展开辩论,案件将择期宣判。
来源:新华社
9.网信部门依法查处“剪映”App等生成合成内容标识违法问题网站平台
近期网信部门工作中发现,“剪映”“猫箱”App及“即梦AI”网站存在未有效落实人工智能生成合成内容标识规定要求等问题,违反《网络安全法》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等法律规定。国家互联网信息办公室指导属地互联网信息办公室,依法对上述网站平台采取约谈、责令改正、警告、从严处理责任人等处置处罚措施。
国家互联网信息办公室相关负责人表示,网站平台要严守法律底线红线,严格落实人工智能生成合成内容标识相关规定要求。网信部门将深入推进依法管网治网,持续加大人工智能生成合成内容标识监督管理力度,切实维护社会公共利益,推动人工智能健康有序发展。
来源:网信中国
国外立法监管动态
1.法国拟立法推定AI“盗用”文化内容,倒置举证责任
2026年4月8日,法国参议院将审议由参议员洛尔·达尔科斯(Laure Darcos)领衔提交的一项关键法案,旨在应对AI行业对文化内容的“掠夺性利用”。该法案的核心在于引入了“推定利用”机制。
今后在版权民事纠纷中,一旦权利人出示初步证据如AI生成内容与原创作品高度雷同,法院即可直接推定AI提供商存在非法使用行为,举证责任由此发生根本性倒置。科技企业必须自证清白,证明其训练数据源自公共领域或已获合法授权,否则将承担法律后果。这一提案旨在通过修订《法国知识产权法典》,打破算法“黑箱”带来的举证壁垒,大幅降低创作者的维权门槛。
目前该法案已完成参议院文化委员会审议,进入一审关键阶段。
来源:DataGuidance
全文链接:
https://www.senat.fr/dossier-legislatif/ppl25-220.html
2.英国立法强制ICO出台AI监管细则,儿童数据成焦点
2026年4月21日,英国国务大臣正式向议会递交《2026年数据保护法(人工智能与自动化决策实务守则)条例》,该条例将于5月12日起正式生效。条例要求信息专员办公室(ICO)制定专项实务守则,就人工智能的开发与使用、自动化决策中相关数据保护立法框架下的个人数据处理提供良好实践指引。条例特别规定,实务守则必须包含关于处理儿童个人数据的良好实践指引。
在该条例中,“自动化决策”特指适用《英国通用数据保护条例》(UK GDPR)第22C(1)条,或适用《2018年数据保护法》第50C(1)条规定的决策行为。“相关数据保护立法”指《英国通用数据保护条例》(UK GDPR)及《2018年数据保护法》,但《2018年数据保护法》第四部分除外。
来源:DataGuidance
全文链接:
https://www.legislation.gov.uk/uksi/2026/425/made
3.美国NIST发布《关键基础设施中的可信人工智能配置文件》概念说明
2026年4月7日,美国国家标准与技术研究院(NIST)发布《人工智能风险管理框架:关键基础设施可信AI应用规范的概念说明》(以下简称“《概念说明》”),以应对国家关键基础设施对AI技术的需求。随着关键基础设施在信息技术、运营技术及工业控制系统中加速应用AI以提升安全性、可靠性与效率,确保AI系统值得信赖成为重要前提。
《概念说明》旨在通过全生命周期的可复现方法,定义并推广AI系统的可信性,帮助管控风险的同时释放AI价值。此次新配置文件将作为《21世纪美国技术领导力战略》的一部分,为关键基础设施运营方提供针对性风险管理实践指引,助力其在引入AI能力时,向团队、开发者及供应链各利益相关方传达可落地的可信性要求,推动AI在关键领域的负责任应用。
来源及全文链接:NIST
https://www.nist.gov/programs-projects/concept-note-ai-rmf-profile-trustworthy-ai-critical-infrastructure
4.美国FDA发出首份涉及AI的警告信:制药企业“盲目”使用AI生成文件遭查处
2026年4月2日,美国食品药品监督管理局(FDA)向密歇根州的Purolea化妆品实验室发出警告信(编号320-26-58),这是FDA首次在药品生产质量管理规范(CGMP)执法中,明确针对人工智能的不当使用提出批评。
FDA于2025年10月对该企业进行现场检查,发现其严重不当使用AI。该企业向FDA承认,其利用AI生成药品规格、生产程序及主生产/控制记录,这些AI生成的文档未经任何人工审核即被直接使用。此外,检查人员发现该企业未按法规要求在产品分销前进行工艺验证,企业竟回应称“不知道有这项法律要求,因为所用AI代理从未告知有此必要”。
FDA指出,AI可作为文档创建的辅助工具,但企业必须对AI生成的所有内容进行审核,确保其准确并符合CGMP要求,否则即违反《美国联邦法规》第21篇第211.22(c)条。过度依赖AI而忽视法定合规义务,不能成为免责理由。若该企业未来恢复药品生产并继续使用AI支持CGMP活动,则AI代理的任何输出或建议,均须由质量部门授权人员依据《联邦食品、药品和化妆品法案》第501(a)(2)(B)条进行审核和批准。FDA确立了“人类最终管控原则”的AI监管底线。目前,Purolea已停止药品生产。
FDA警告,所有制药企业应以此为鉴,不得在CGMP活动中“盲目”依赖AI,必须建立强制人工审核机制,并独立承担对所有适用法规的知悉义务。
来源及全文链接:FDA
https://www.fda.gov/inspections-compliance-enforcement-and-criminal-investigations/warning-letters/purolea-cosmetics-lab-722591-04022026
6.佛罗里达州总检察长就FSU枪击案扩大对OpenAI的调查,现已升级为刑事调查
2026年4月22日,佛罗里达州(“佛州”)总检察长詹姆斯·乌特迈尔宣布,针对OpenAI与2025年佛罗里达州立大学(FSU)大规模枪击案关联的调查已升级为刑事调查。乌特迈尔称,初步审查发现,ChatGPT在枪手实施犯罪前提供了大量建议,包括最佳枪支、弹药、作案时间与地点。2025年4月17日的枪击案造成2人死亡、5人受伤。乌特迈尔表示,检察官认为“若屏幕另一端是真人,将以谋杀罪起诉”。总检察长办公室已向OpenAI发出传票,要求提供自2024年3月以来的用户威胁应对政策、内部培训材料及与执法合作等信息。OpenAI未予回应。此前,佛州还曾调查ChatGPT涉嫌助长青少年自杀和便于制作儿童色情内容。佛州州长德桑蒂斯呼吁加强AI监管,但遭州众议院否决。
来源:佛罗里达新闻社
7.联合国全球人工智能治理对话首次会议将于2026年7月在日内瓦举行
2026年4月2日,联合国发文表明全球人工智能治理对话首次会议定于2026年7月6日至7日在瑞士日内瓦召开,第二次会议计划于2027年5月在纽约举行。该对话由联合国大会致力于全球数字契约设立,旨在为所有国家和利益相关方提供平等参与人工智能治理的包容性平台。
这场对话将围绕四大核心支柱展开,旨在构建一个包容、安全且以人为本的AI未来。首先,在“AI的机遇与影响”层面,讨论将超越单纯的技术维度,深入剖析AI对社会结构、文化多样性及全球经济格局的重塑力量,直面其伴随的伦理挑战与就业冲击。其次,针对日益扩大的“AI鸿沟”,对话将聚焦于能力建设与数字基础设施的普及,特别强调利用联合国机制支持发展中国家,推动开源软件、开放数据与高性能计算技能的共享,防止全球南方国家在技术浪潮中掉队。在安全与信任层面,对话致力于建立全球通用的安全标准与操作框架,确保AI系统从设计之初就具备安全可靠、值得信赖的属性,避免碎片化治理带来的合规壁垒。最后,也是最为根本的,对话将重申“尊重、保护与促进人权”的底线,确立透明度、问责制以及强有力的“人工监督”机制。这不仅是对技术失控风险的防范,更是对此前频发的“企业将AI作为逃避法律责任挡箭牌”等现象的直接回应,确保AI的发展始终置于国际法与人类价值观的掌控之中。
来源:联合国
收集整理:德和衡网络安全与数据合规团队
德和衡网络安全与数据合规团队是一个长期专注于数据合规专项法律服务的团队。团队成员由北京、深圳、上海三地的律师组成。团队自2014年成立以来,核心成员均来自国内领先的网络安全企业360,积累了丰富的行业经验。团队致力于协助企业客户提升数据管理水平,预防及应对数据安全问题,提高数据质量,并充分发挥企业数据资产的最大价值。目前,团队已为房产、能源、智能制造、电子、车联网、大数据、金融、物流、电商等多个行业的领军企业提供全套数据合规法律服务。