新闻资讯

AI前沿 | 全球立法和监管2025年9月速报

2025-09-30

  目 录

  国内立法监管动态

  一、国家发展改革委、国家能源局发布《关于推进“人工智能+”能源高质量发展的实施意见》

  二、交通运输部印发《交通运输行业高质量数据集建设方案》

  三、《人工智能安全治理框架》2.0版正式发布

  四、公安网安部门依法对某人工智能服务科技有限公司予以行政处罚

  五、净网—2025 | 警惕“AI换脸”成为窃取个人隐私新手段

  六、北京互联网法院发布涉人工智能纠纷典型案例

  七、全国首个“人工智能局”揭牌成立

  境外立法监管动态

  一、意大利通过《人工智能法案》

  二、美国参议院提交人工智能沙盒法案

  三、美国众议院通过2026年《国防授权法案》,部署网络安全与人工智能计划

  四、Anthropic用盗版书训练AI赔偿15亿美元

  五、香港与全球19个私隐或资料保障机构签署保障私隐的AI环球联合声明

  六、迪士尼等巨头起诉MiniMax侵权

  国内立法监管动态

  一、国家发展改革委、国家能源局发布《关于推进“人工智能+”能源高质量发展的实施意见》

  2025年9月8日,国家发展改革委、国家能源局发布《关于推进“人工智能+”能源高质量发展的实施意见》(以下简称“意见”)。意见提出,到2030年,能源领域人工智能专用技术与应用总体达到世界领先水平。算力电力协同机制进一步完善,建立绿色、经济、安全、高效的算力用能模式。能源与人工智能融合的理论与技术创新取得明显成效,能源领域人工智能技术实现跨领域、跨行业、跨业务场景赋能,在电力智能调控、能源资源智能勘探、新能源智能预测等方向取得突破,具身智能、科学智能等在关键场景实现落地应用。形成一批全球领先的“人工智能+”能源相关研发创新平台和复合人才培养基地,建成更加完善的政策体系,持续引导“人工智能+”能源高效、健康、有序创新,为能源高质量发展奠定坚实基础。

  来源:央视网

  原文链接:国家能源局

  https://www.nea.gov.cn/20250908/8a90bf7f17b141038fe7be0988a2c603/c.html

  二、交通运输部印发《交通运输行业高质量数据集建设方案》

  为落实《国务院关于深入实施“人工智能+”行动的意见》要求,持续加强人工智能高质量数据集建设,发挥行业数据资源丰富、应用场景广阔等优势,支撑“人工智能+交通运输”融合发展,近日,9月19日,交通运输部印发了《交通运输行业高质量数据集建设方案》(以下简称《建设方案》),系统部署交通运输行业高质量数据集建设任务。

  《建设方案》以数据为中心,应用为牵引,遵循急用先行、系统推进的原则,优先解决行业人工智能应用最迫切的场景,着力提高数据集供给数量和质量,完善行业高质量数据集服务体系,健全行业高质量数据集标准规范,营造行业高质量数据集建设生态,加快构建行业高质量数据集供给体系,培育壮大交通运输新质生产力,支撑打造智能综合立体交通网。到2030年底,建成一批服务于不同应用场景的高质量数据集,形成一批高质量数据集驱动交通运输行业模型应用的典型案例,基本满足世界领先模型的训练需求。

  《建设方案》围绕“多模态覆盖、多场景贯通、多任务协同”的思路,提出建设行业通识数据集,并综合考虑场景应用需求必要性、技术可行性、经济可行性、数据基础条件等因素,面向基础设施、交通装备、运输服务、行业治理、绿色低碳、安全保障、科技创新等7个业务领域,提出公路基础设施状态监测、航道运行风险评估与智能监测、多运输方式物流运输成本优化等39个行业专识数据集建设场景。

  下一步,交通运输部将会同各地方、各单位,加快推动《建设方案》的实施,为建设综合交通运输大模型提供数据支撑。

  来源:交通运输部

  三、《人工智能安全治理框架》2.0版正式发布

  2025年9月15日,在2025年国家网络安全宣传周主论坛上,《人工智能安全治理框架》2.0版(以下简称“《框架》2.0版”)正式发布。《框架》2.0版的前身(1.0版)于2024年9月发布,受到国内外广泛关注;作为全国网安标委技术文件,《框架》2.0版在2024年1.0版的基础上,结合人工智能技术发展和应用实践,持续跟踪风险变化,完善优化风险分类,研究探索风险分级,动态调整更新防范治理措施。

  《框架》2.0版的人工智能治理框架基于风险管理,含安全风险分类、技术应对措施、综合治理措施、研发与应用安全指引,还提出可信AI基本准则。《框架》2.0将人工智能安全风险分为技术内生安全风险、技术应用安全风险、人工智能应用衍生安全风险三类,其中,技术内生安全风险含模型算法和数据安全风险;技术应用风险含网络系统、信息内容安全风险等;应用衍生风险含社会环境和伦理安全风险。

  针对不同安全风险,《框架》2.0版提出模型算法研发者、服务提供者、系统使用者等应从训练数据、模型算法、算力设施、产品服务、应用场景各方面采取技术措施予以防范。

  《框架》2.0版提出在采取技术应对措施的同时应完善建立健全人工智能安全法律法规、构建人工智能科技伦理准则、提升研发应用全生命周期安全能力、强化开源生态安全和供应链安全、实施应用分类及安全风险分级管理等多方参与的人工智能风险综合治理制度规范。

  来源及全文链接:网信中国

  https://www.cac.gov.cn/2025-09/15/c_1759653448369123.htm

  四、公安网安部门依法对某人工智能服务科技有限公司予以行政处罚

  2025年9月15日,公安网安部门在“护网—2025”专项工作中发现,某主营业务为对外提供人工智能模型训练基础数据(算料)的科技有限公司,在处理人脸等生物识别类敏感个人信息前,未按《个人信息保护法》有关规定进行个人信息保护影响评估。属地公安机关依据《个人信息保护法》规定,对该公司依法予以行政处罚,并责令整改。

  安全提示:合法合规的人工智能训练数据是高水平大模型研发的基石。提供生成式人工智能服务的网络数据处理者应当加强对训练数据和训练数据处理活动的安全管理,采取有效措施防范和处置网络和数据安全风险。产业链相关企业要以案为鉴,遵守《网络安全法》《个人信息保护法》《数据安全法》,切实履行网络安全、数据安全和信息安全责任义务,在采集公民个人信息时及时征得采集对象同意,对外交付数据前开展个人信息保护影响评估及数据出境安全评估,以更高水平的训练数据安全保障人工智能产业高质量发展。

  来源:国家网络安全通报中心

  五、净网—2025 | 警惕“AI换脸”成为窃取个人隐私新手段

  根据“公安部网安局”公众号2025年9月24日消息,近期,浙江杭州警方侦破一起利用“AI换脸”突破相关互联网平台人脸识别认证机制侵犯公民个人信息案件,抓获犯罪嫌疑人4名,查获一批被非法强制登录的网络账号。涉案人员利用生成式人工智能深度合成技术伪造“AI人脸”,突破平台人脸识别认证机制,非法窃取公民个人隐私数据。该案中,犯罪团伙利用某即时通讯平台招揽生意,宣称可以承接互联网平台特定用户数据的“查细”业务。接单后,团伙成员伪造受害者人脸验证视频,突破相关头部平台登录认证,强制登录受害者账号窃取信息。

  该案中,犯罪团伙、互联网平台、个人信息买家均需根据具体行为承担刑事、行政及民事责任。一是实施犯罪的团伙利用“AI换脸”突破互联网平台认证机制,非法获取公民个人信息并出售的行为,涉嫌非法获取计算机信息系统数据罪、侵犯公民个人信息罪,情节特别严重的,可处三年以上七年以下有期徒刑,并处罚金;二是互联网平台未采取有效措施保护注册用户个人信息,导致用户个人信息泄露,可能面临连带的行政处罚和民事赔偿;三是买家出于各种目的非法购买他人信息的行为,可能涉嫌非法获取公民个人信息、侵犯公民个人隐私的违法行为。

  来源:公安部网安局

  六、北京互联网法院发布涉人工智能纠纷典型案例

  2025年9月10日,北京互联网法院召开涉人工智能案件审理情况新闻发布会,北京互联网法院召开涉人工智能案件审理情况新闻发布会,对涉人工智能案件特点、案件审理面临的挑战、审理思路及典型案例进行了发布,并针对性地提出了妥善化解此类纠纷的对策建议。

  近年来,北京互联网法院受理的涉人工智能新类型案件呈逐年增长态势,涵盖知识产权侵权、网络侵权责任、网络服务合同等多个案由。其中知识产权案件涉及人工智能生成物的可版权性、大模型训练中的著作权侵权认定、人工智能生成物侵权主体责任认定等问题;网络侵权案件涉及人格权保护是否及于虚拟形象、合成声音,人工智能生成内容是否构成侵权等问题;网络服务合同涉及平台算法治理、AI幻觉平台责任认定等问题。

  总体呈现出以下三个特点:覆盖产业领域持续扩展,随着人工智能赋能千行百业,涉人工智能案件不再局限于互联网行业,而是向传统产业领域渗透,新兴与传统场景复合、技术交叉、利益交织;市场主体创新风险迭代升级,应用人工智能技术的产品和服务快速出新,AI幻觉等技术的不确定性使模型开发者、服务提供者和用户等市场主体面临新型、复合性法律风险;裁判规则引领作用凸显,涉人工智能案件司法裁判不仅是对个案技术与法律层面的裁判,更承载着对科技伦理、创新激励与权益保护进行平衡的价值引导功能,深刻影响着技术发展方向与社会伦理规范的形成。

  技术应用复杂导致事实查明难、规则适配不足导致法律适用难、主体角色多元导致责任认定难,是当前涉人工智能案件审理面临的三大挑战。

  针对预防化解涉人工智能纠纷,北京互联网法院提出四点建议:网络用户要提升法律意识与数字素养,明确自身行为边界,依法维护自身合法权益;人工智能技术开发者要严格遵守技术伦理规范,确保数据和基础模型来源合法;人工智能服务提供者应积极完善管理机制,强化人工智能服务提供者主体责任;要加强人工智能监管协同合作,形成监管合力。

  来源:北京互联网法院

  七、全国首个“人工智能局”揭牌成立

  2025年9月3日下午,温州举行全市人工智能创新发展大会,会上正式挂牌成立温州市人工智能局,温州在加快建设人工智能创新发展先行市进程中迈进重要一步。

  此前,省委机构编制委员会办公室已批复同意温州市数据局加挂温州市人工智能局牌子。据悉,这是全国首个挂牌的人工智能局。

  该局主要职责包括拟定并组织实施全市人工智能发展规划和政策,统筹推进全市算力、语料、算法等相关基础设施布局建设,牵头推进全市“人工智能+行动”,以及开展人工智能领域企业、人才引育服务等。

  来源:中国信息化周报

  境外立法监管动态

  一、意大利通过《人工智能法案》

  2025年9月17日,意大利通过《人工智能法案》(以下简称“法案”),意大利成为欧盟第一个批准全面监管人工智能(AI)使用法律的国家,该法案包括对使用AI造成危害(如生成深度伪造内容)的人处以监禁,并限制儿童接触AI。

  该法案旨在促进“以人为本、透明和安全的人工智能应用”,同时强调“创新、网络安全和隐私保护”。

  法案规定,如果非法传播AI生成或篡改的内容造成危害,那么相关责任人将被判处1至5年有期徒刑。

  利用AI技术实施欺诈、身份盗窃等犯罪行为将加重处罚,同时对工作场所及医疗、教育、司法、体育等领域的AI应用制定更严格的透明度和人工监督规则。

  此外,14岁以下的儿童需要父母同意才能使用AI技术。

  在版权责任方面,法律规定,在AI帮助下创作的作品,如果源于真实智力劳动则将受到保护,而由AI驱动的文本和数据挖掘将只允许用于非版权内容或经授权机构进行的科研活动。

  政府已任命意大利国家数字化署和国家网络安全局执行该法案。经过一年的辩论,该法案在议会获得了最终批准。

  该法案授权国家支持的风险投资基金拨款最高10亿欧元,用于支持活跃在AI、网络安全和电信领域的企业。

  来源:欧洲时报

  法案链接:

  https://www.senato.it/leg/19/BGT/Schede/FascicoloSchedeDDL/ebook/59313.pdf

  二、美国参议院提交人工智能沙盒法案

  2025年9月10日,美国参议院商业委员会主席特德・克鲁兹(TedCruz)推出一项立法框架,旨在支持美国在人工智能(AI)领域的领先地位。该框架明确了国会制定AI政策需遵循的五大支柱,并提出一套监管方案——在推动AI安全部署的同时,妥善应对各类新兴风险。

  作为该框架下的首项立法提案,《通过监管与实验强化人工智能标准化与推广法案》(简称《SANDBOX法案》)计划设立“监管沙盒”机制。这一机制将允许AI开发者测试并推出新技术,无需受制于现有联邦法规中可能存在的过时或僵化条款。同时,《SANDBOX法案》也纳入了相应保障措施,以解决健康、公共安全及欺诈相关问题。

  根据《SANDBOX法案》,AI开发者可申请修改或豁免那些可能阻碍其研发工作的特定法规。美国科学技术政策办公室(OSTP)将负责统筹各联邦机构,对这类申请展开评估。国会将定期收到法规豁免或修改的实施情况报告,其核心目的是为未来制定AI相关监管政策提供参考依据。

  来源链接:Federal News

  法案链接:

  https://www.commerce.senate.gov/services/files/032DEA9D-0C56-41B4-A155-53FFC3987350

  三、美国众议院通过2026年《国防授权法案》,部署网络安全与人工智能计划

  2025年9月10日,美国众议院通过了2026财年《国防授权法案》(NDAA)(以下简称为“法案”),法案明确了美国国防部本年度的政策框架与工作方向。

  与过去两年间"研究设立美国网络部队"议题主导辩论的情形相比,本次政策纲要中的数字安全条款显得较为温和。法案要点包括:

  1.要求美国国家安全局就网络安全协调中心的运营规划向国会进行简报;

  2.规定各作战司令部须每年向立法者提交报告,评估网络司令部提供的支援是否充分;

  3.为国防部使用的人工智能技术建立"软件物料清单"制度;

  4.授权五角大楼设立12个生成式人工智能专项计划,旨在通过AI强化网络安全防御及情报搜集分析能力;

  5.在全会辩论期间采纳的修正案允许国安局向私营部门共享威胁情报,以加强美国电信领域的数字安全;

  6.要求国防部研究国民警卫队在联邦及州级网络事件响应中的职能,包括如何提升其应急能力。

  来源链接:the record

  全文链接:

  https://armedservices.house.gov/uploadedfiles/h.r._3838_fy26_ndaa_as_reported_to_the_house.pdf

  四、Anthropic用盗版书训练AI赔偿15亿美元

  美国首宗人工智能(AI)侵犯版权案达成庭外和解。美国联邦法官于当地时间9月25日批准,人工智能初创公司Anthropic支付15亿美元(约合117亿港元)进行和解,以解决因利用盗版书籍数据库训练AI而面临的集体诉讼。

  原告指控Anthropic在训练Claude模型时,非法下载并使用约700万本盗版书籍。6月法院裁定,合法购书训练属“合理使用”,但明知盗版仍下载并投入训练构成侵权,另外立案处理。新的案件原定于12月宣判,但Anthropic寻求尽快与原告达成庭外和解。9月25日,法官初步批准了15亿美元的和解协议方案,以解决涉及50万本书籍的版权争议。

  根据该协议,Anthropic将向涵盖的50万本书的作者和出版商,每部支付约3000美元(2.3万港元)的赔偿金,另再加利息,是美国著作权法规定最低法定赔偿金的4倍。不过,该协议并不适用于这些作家和出版商未来的作品和书籍。作为和解协议的一部分,Anthropic还将销毁原始盗版档案及任何副本,但公司仍保有合法购买并扫描书籍的权利。

  来源:大公网

  五、香港与全球19个私隐或资料保障机构签署保障私隐的AI环球联合声明

  香港个人资料私隐专员(私隐专员)钟丽玲,联同全球19个私隐或资料保障机构的专员或高级代表,于2025年9月17日在韩国首尔举行的第47届环球私隐议会年度会议(会议)之际,共同签署《建立值得信赖的数据治理框架以促进创新和保障私隐的人工智能发展联合声明》(“《AI环球联合声明》”)。20个联署的私隐或资料保障机构分别来自澳洲、比利时、保加利亚、加拿大、中国香港、中国澳门、克罗地亚、芬兰、法国、德国、爱尔兰、意大利、韩国、卢森堡、荷兰、新西兰、波兰、西班牙、瑞典及英国。

  私隐专员钟丽玲表示︰「AI环球联合声明彰显私隐或资料保障机构在塑造数据管治以应对AI挑战方面的重要地位。联署机构承诺将互相交换资讯及建立数据安全共识、持续监测AI带来的技术及社会影响,在鼓励创新的同时明确法律的规管,及加强与其他相关机构的合作。香港个人资料私隐专员公署(私隐专员公署)会积极配合推进《行政长官2025年施政报告》的政策方针,推动AI在港的发展,同时深化国际交往合作,以保障AI安全。」

  另外,为应对AI带来的私隐风险,成员在会议上一致通过两项与AI有关的决议,即《在涉及AI系统的决定中加入有意义的人为监督决议》及《收集、使用及披露个人资料作预先训练、训练及微调AI模型决议》。两项决议均由香港私隐专员公署共同发起。

  来源:香港个人资料私隐公署

  声明全文链接:

  https://www.pcpd.org.hk/english/news_events/media_statements/files/New_JointStatementonDataGovernance_Signed.pdf

  六、迪士尼等巨头起诉MiniMax侵权

  2025年9月16日,迪士尼、环球影业、华纳兄弟三大影视巨头联合在美国加州联邦法院起诉国内公司MiniMax,指控其旗下AI产品“海螺AI”侵犯版权。

  起诉书称,MiniMax及其产品“海螺AI”,在训练和生成过程中大规模复制和再现影视、漫画作品,构成未经授权的复制、发行、衍生作品创作、公开展示和公开表演,违反《美国版权法》。除直接侵权外,MiniMax还被指存在协助侵权,应承担连带责任。

  三家影视巨头的诉求是,要求法院判决MiniMax赔偿实际损失,或者选择法定赔偿(每部被侵权作品最高可达15万美元,按本次诉讼书提及50部作品计算,总计可能达到750万美元)。此外,还要求法院发布禁令,禁止MiniMax继续侵犯版权作品,为海螺AI加入适当的版权保护机制。

  来源:21世纪经济报道

  收集整理:德和衡网络安全与数据合规团队

  德和衡网络安全与数据合规团队是一个长期专注于数据合规专项法律服务的团队。团队成员由北京、深圳、上海三地的律师组成。团队自2014年成立以来,核心成员均来自国内领先的网络安全企业360,积累了丰富的行业经验。团队致力于协助企业客户提升数据管理水平,预防及应对数据安全问题,提高数据质量,并充分发挥企业数据资产的最大价值。目前,团队已为房产、能源、智能制造、电子、车联网、大数据、金融、物流、电商等多个行业的领军企业提供全套数据合规法律服务。