目 录
国内立法监管动态
1.《人工智能拟人化互动服务管理暂行办法》公开征求意见
2.我国首部大模型国家标准实施 构建人工智能产业“标准基座”
3.黄浦法院AI提示词著作权案生效判决
4.荣昌区网信办依法对属地一网站平台作出行政处罚
5.建设全国一体化算力网络按下“加速键”向“智”向“绿”转型发展
境外立法监管动态
1.越南通过《人工智能法》
2.美国特朗普总统发布了《确保制定国家人工智能政策框架》行政命令
3.欧盟委员会就人工智能监管沙盒设立草案公开征求意见
4.印度议会提出《人工智能(伦理与问责)法案》
5.英国:通信办公室发布AI聊天机器人《在线安全法》适用指南
6.韩国发布《人工智能安全指南》
7.欧盟对谷歌AI数据使用行为启动正式反垄断调查
国内立法监管动态
1.《人工智能拟人化互动服务管理暂行办法》公开征求意见
2025年12月27日,为了促进人工智能拟人化互动服务健康发展和规范应用,国家互联网信息办公室起草了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称“征求意见稿”),于27日向社会公开征求意见。征求意见稿提出,国家鼓励拟人化互动服务创新发展,对拟人化互动服务实行包容审慎和分类分级监管,防止滥用失控。
征求意见稿明确了适用范围,即利用人工智能技术,向我国境内公众提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或者服务。
征求意见稿指出,提供和使用拟人化互动服务,不得开展生成、传播危害国家安全、损害国家荣誉和利益、破坏民族团结、开展非法宗教活动,或者散布谣言扰乱经济和社会秩序等内容;生成、传播宣扬淫秽、赌博、暴力或者教唆犯罪的内容;通过鼓励、美化、暗示自杀自残等方式损害用户身体健康,或者通过语言暴力、情感操控等方式损害用户人格尊严与心理健康等活动。
根据征求意见稿,提供者应当显著提示用户正在与人工智能而非自然人进行交互。提供者识别出用户出现过度依赖、沉迷倾向时,或者在用户初次使用、重新登录时,应当以弹窗等方式动态提醒用户交互内容为人工智能生成。
来源:新华网
征求意见稿链接:
https://www.tjcac.gov.cn/wxdt/qg/202512/t20251229_7209387.html
2.我国首部大模型国家标准实施 构建人工智能产业“标准基座”
2025年12月26日,GB/T 45288《人工智能大模型》系列国家标准正式实施,标志着我国大模型产业进入“科学权威、统一规范”新阶段。
作为首部聚焦通用大模型的国家标准,该系列填补了技术评价体系空白,明确性能、安全与服务能力要求,配套评测能力已获中国合格评定国家认可委员会(CNAS)认可。基于此构建的“求索”-LMBench评测基准,整合方法、数据集与自动化平台,成为行业公认的“能力标尺”。
在实体经济赋能与产业链强链补链进程中,标准的引领作用愈发凸显。围绕国家“人工智能+”行动部署,该系列标准支撑构建的评测体系,通过对主流大模型的专业评测形成权威白名单,为中央企业、国有企业选型提供科学依据,从源头规避技术应用风险。评测体系已支撑中石化、南方电网等建设行业大模型,完成对华为盘古、讯飞星火、中移动九天等模型的场景验证。
来源:央广网
3.黄浦法院AI提示词著作权案生效判决
近期,上海市黄浦区人民法院对上海首例涉AI提示词著作权侵权案作出一审判决,该案将争议核心锁定于输入端,围绕提示词是否具备作品独创性、是否属于“表达”等问题展开论证,为人工智能领域的知识产权保护带来思考与启示。
原告系一家从事美术创作的公司,2022年撰写了六组涉案提示词,内容涵盖画作的艺术风格、主体元素、材质细节等。原告使用涉案提示词在Midjourney平台生成绘画作品,并在小红书等平台发表。
二被告在小红书平台及出版书籍中使用的画作与原告生成作品近似。经在Midjourney平台搜索,发现二被告发表的画作系使用原告撰写的涉案提示词在该平台生成。
原告认为,涉案提示词构成文字作品,二被告利用原告创作的提示词在Midjourney平台生成画作并发布该画作的行为,侵犯了原告对该文字作品享有的复制权、发行权、信息网络传播权和署名权,故诉请人民法院判令:二被告停止侵权,并赔偿维权合理开支9900元。
黄浦区人民法院经审理后认为,涉案六组提示词采用的基本结构为艺术风格、主体元素、材质与细节、科学语境和主要构图,本质是用户输入AI系统的指令或描述,用于引导生成特定图片。从形式上看,它们虽包含多类元素,但各元素间仅为简单罗列,缺乏语法逻辑关联;关键词组无序组合,既无层次递进,也无场景化叙事顺序。从独创性角度分析,这些提示词缺乏作者的个性化特征,所选用的艺术风格、材质细节等均属该领域常规表达,未体现作者独特的审美视角或艺术判断。同时,涉案提示词仅体现抽象的创作想法和指令集合,核心是对画面元素、艺术风格、呈现形式等的罗列与描述,这些内容更多属于抽象的创作构思,属于思想范畴。因此,涉案提示词虽反映一定的创作意图,但没有体现出作者在表达层面的个性化智力投入,不应认定为作品。原告对提示词不享有著作权,自然无权主张著作权侵权。
由此,黄浦区人民法院作出一审判决:驳回原告的全部诉讼请求。
来源:上海高院
4.荣昌区网信办依法对属地一网站平台作出行政处罚
近日,荣昌区网信办根据相关线索,依据《中华人民共和国网络安全法》等法律法规对属地一网站平台涉嫌存在网络安全违法行为进行立案调查并作出行政处罚。
经查,该网站运营者未建立网络安全制度和内容审核机制,提供的“AI对话”功能,生成含有法律、行政法规禁止的内容,未采取有效措施停止法律法规禁止发布的信息内容,违反《中华人民共和国网络安全法》《生成式人工智能服务管理暂行办法》等法律法规。
荣昌区网信办依法依规责令其限期整改,对该网站负责人给予警告的行政处罚。同时,要求其认真学习互联网相关法律法规,建立健全相关管理制度和内容审核机制,强化技术防护措施,切实履行网站运营者主体责任。
来源:网信荣昌
5.建设全国一体化算力网络按下“加速键”向“智”向“绿”转型发展
2025年12月15日,我国正有序推进算力中心建设布局,加速构建协同高效的全国一体化算力网络,提升智算资源供给能力和利用效率。
数据显示,我国算力基础设施规模持续扩大,在用算力中心规模达1250万标准机架。当前,算力发展仍面临监测效率不高、供需信息不全、分配缺乏全局规划等难点。
工业和信息化部日前发布《算力互联互通行动计划》,提出构建算力互联互通平台体系,推动不同主体、不同架构的公共算力资源标准化互联。
随着AI大模型发展,智能算力需求迅猛增长。国际数据公司预计,2026年中国智能算力规模将达到2024年的两倍。智算芯片性能更强、集成密度更高,同时也带来更大耗电量,推动数据中心向绿色化转型。
例如,河北廊坊拥有超大规模智算集群,全国排名前十的算力服务商中有6家在此布局。当地企业通过引入AI算法动态调整系统负载,优化运行参数以降低能耗,并从芯片到服务器进行全链条能效设计。目前,廊坊已有超过20家数据中心向智算中心转型。
国际能源署预计,到2030年,AI设施用电量将增长五倍,对算力行业的绿色化与能源综合利用提出更高要求。
来源:央视网
境外立法监管动态
1.越南通过《人工智能法》
2025年12月10日下午,在第十届国会第十次会议上,国会表决通过了《人工智能法》(以下简称“AI法”)。AI法自2026年3月1日起生效,是越南首次制定并颁布专门的AI法律,共35条。
AI法是一部框架性法律,简洁地规定了国家对人工智能管理的原则和框架。技术性内容将在政府法令中规定。AI法仅调整人工智能的输出和使用行为,以及AI对社会造成的风险。
(1)关于基于风险级别的管理,AI法已从AI法草案中的4级风险调整为3级:低风险、中风险和高风险,并辅以一条关于禁止行为的规定,确保管理分层清晰透明。
(2)关于对高风险AI系统的检查,部长确认AI法规定了部署前的最低限度义务;企业必须自行准备安全评估档案,但无需申请许可。档案须在管理机构进行检查时提供。
(3)关于损害赔偿,AI法取消了AI法草案按营业额罚款的规定,要求对全部损失进行赔偿,并设立了暂停服务提供的处罚措施。
(4)针对“高风险人工智能系统是否属于高度危险源”的问题。考虑人工智能系统是决策风险软件,而非如机动车辆或爆炸物那样的物理固有风险,因此AI法并未将高风险人工智能系统归入高度危险源类别。
(5)在促进人工智能领域发展与创新方面,AI法提出了包含以下要点的扶持政策:建设人工智能基础设施、扩大公共数据开放访问范围、支持新模型测试验证、给予人工智能企业税收优惠、加强专业人才培养,以及扶持中小企业应用人工智能技术。
来源:越南政府
2.美国特朗普总统发布了《确保制定国家人工智能政策框架》行政命令
2025年12月11日,美国总统唐纳德·J·特朗普今日签署《确保制定国家人工智能政策框架》行政命令(以下简称“命令”),旨在应对各州法规差异可能引发的合规体系混乱与成本上升问题,从而维护美国人工智能产业的创新环境。
该命令指示司法部组建人工智能诉讼专项工作组,通过法律诉讼对阻碍创新、违反宪法、与联邦法律冲突或存在其他违法情形的各州人工智能法规进行合法性质疑。
同时,命令要求商务部公布对各州人工智能法律的评估结果,明确列出与联邦人工智能政策目标相冲突的州级法规,对于存在这类法律的州,联邦将暂停发放一项名为“宽带公平接入与部署”(BEAD)的专项补助资金中的部分款项。其他联邦机构在发放各类补助时,也会优先考虑那些没有制定严苛AI法规,或对现有法规执行灵活的州。
命令要求联邦贸易委员会(FTC)和联邦通信委员会(FCC)行动起来,防止各州强迫AI公司做出误导用户的行为。例如,将调查“强制企业在AI模型中嵌入特定多元化、公平性和包容性要求”是否涉嫌违法,并研究是否要制定全国统一的AI模型报告与信息公开标准。
最终,该命令旨在推动国会建立一套全国适用的AI监管框架,用清晰、稳定的联邦法律取代各州可能阻碍创新的规定,为AI发展保驾护航。
来源:白宫
3.欧盟委员会就人工智能监管沙盒设立草案公开征求意见
2025年12月3日,欧盟委员会发布了长达12页的实施条例草案(文件编号Ares(2025)10569703),旨在为具有里程碑意义的《欧盟人工智能法案》框架下的AI监管沙盒运作制定详细规则。该草案为受监督的测试环境构建了系统化框架,允许人工智能创新者(特别是在医疗健康领域)在监管机构的监督下,于产品上市前开展人工智能系统的开发与验证工作。
AI监管沙盒是一种受控环境,开发者可在监管机构的密切关注下测试其通常具有创新性或复杂性的人工智能系统。这种方法能够提供关于如何遵守《欧盟人工智能法案》的实时指导,而非等待产品上市后的审查。对于医疗健康领域的人工智能应用(常涉及诊断或治疗建议等高风险场景),沙盒机制有助于在创新与患者安全、数据隐私及监管要求之间取得平衡。
条例草案核心条款
(1)资格与准入
A.仅限尚未上市或正在进行重大修改的人工智能系统参与;
B.为鼓励创新,中小企业(包括初创公司)可免费参与;
C.大型企业可能需要支付成本回收费用,以支持沙盒的运营。
(2)运行框架
A.每位参与者须与主管机构商定详细的沙盒计划,明确目标、时间表、方法论及风险缓释措施;
B.主管机构需记录活动过程,提供参与书面证明,并出具总结监管经验的退出报告;
C.若测试期间出现安全隐患或侵犯基本权利的风险,项目可被暂停;
D.将每年发布沙盒活动报告,以确保透明度并在欧盟范围内分享监管经验;
E.需特别注意:参与沙盒及取得的退出文件,不等同于《人工智能法案》所要求的正式符合性声明;它们仅作为参与监管互动和学习的证明。
来源:MedQAIR
草案链接:
https://ec.europa.eu/newsroom/dae/redirection/document/122311
4.印度议会提出《人工智能(伦理与问责)法案》
2025年12月5日,包含效能监测要求的《人工智能(伦理与问责)法案》(以下简称“法案”)正式提交至印度议会人民院审议。该法案旨在为人工智能在决策、监控及算法系统中的运用建立全国统一的伦理与问责框架。
法案核心内容如下:
(1)定义与适用范围
A.人工智能定义:指能够执行类人任务(包括决策、语言处理、视觉感知等)的系统。
B.算法偏见界定:被定义为可能导致不公正结果的系统性偏差。
C.适用范围:涵盖在印度境内运营的AI技术开发者、部署者、使用者及其他相关主体。
(2)核心义务规定:法案要求开发者必须:
A.开展定期审计,以识别并降低AI系统中的偏见风险;
B.对于存在相关偏见的AI系统,需在实施纠正措施前责令其暂停使用,直至问题得以解决。
该法案的提出标志着印度正系统化推进人工智能治理体系建设,致力于在技术发展过程中嵌入伦理监督与责任机制。
来源:Digital Policy Alert
全文链接:
https://portal.live.dataguidance.otdev.org/sites/default/files/59%20of%202025%20AS125202594603PM%20%281%29.pdf
5.英国:通信办公室发布AI聊天机器人《在线安全法》适用指南
2025年12月18日,英国通信管理局发布指南,明确《在线安全法》对人工智能聊天机器人的监管要求。根据指南,提供社交平台、搜索服务或发布色情内容的服务商,必须评估并降低其用户(尤其是儿童)所面临的风险隐患。若聊天机器人属于上述服务类型或嵌入其中,则必须遵守该法规定。
值得注意的是,AI生成的内容在社交平台上将与人工发布的内容受到同等监管。但符合以下全部条件的聊天机器人可豁免遵守该法:仅支持用户与机器人单独互动,不涉及其他用户;不具备同时搜索多个网站或数据库以获取回答的功能;且无法生成色情内容。
来源:Digital Policy Alert
全文链接:
https://www.ofcom.org.uk/online-safety/illegal-and-harmful-content/ai-chatbots-and-online-regulation-what-you-need-to-know
6.韩国发布《人工智能安全指南》
2025年12月10日,韩国互联网振兴院正式发布《人工智能安全指南》,旨在帮助相关方预防AI技术与服务的安全威胁,保障数据与系统安全,为开发者、服务提供商及用户构建可信的人工智能环境。
指南核心建议包括:
(1)建立治理框架:构建明确的AI安全治理体系,界定各方职责,制定安全政策、操作规程与风险管理计划。
(2)实施全周期风险评估:覆盖AI全生命周期开展风险分析,执行威胁建模,并优先针对高影响风险实施缓解策略。
(3)强化数据安全管控:通过加密、访问控制及数据完整性验证等措施,保障数据采集、存储与预处理安全;部署防护机制应对数据投毒、规避、泄露及篡改攻击。
(4)保障训练与验证环境安全:为AI模型的训练和验证过程提供物理与数字层面的双重安全环境。
(5)部署前开展漏洞扫描:在系统上线前执行自动化漏洞检测。
(6)建立实时监控机制:对模型输入输出及系统日志实施实时监控。
(7)规范模型退役管理:当AI模型停用或更换时,确保模型文件、训练数据及相关日志被彻底且不可恢复地删除。
(8)加强用户安全教育:指导用户安全使用AI服务,包括避免输入敏感信息、核实信息来源真实性,以及识别钓鱼攻击与深度伪造威胁。
来源:DG
指南链接:
https://www.kisa.or.kr/2060204/form?postSeq=19&page=1
6.欧盟对谷歌AI数据使用行为启动正式反垄断调查
2025年12月9日,欧盟委员会已正式启动反垄断调查,重点审查谷歌在人工智能(AI)开发中利用网络出版商内容及YouTube平台视频内容的行为,是否违反了欧盟竞争规则。调查将特别关注谷歌是否通过向内容发布方和创作者施加不公平条款、或为自身获取特权数据访问权等方式扭曲市场竞争,从而使其他AI模型开发商处于不利地位。欧盟委员会主要关注以下两个潜在违规行为:
(1)未经许可使用网络内容训练AI搜索服务
谷歌被指控在搜索结果中推出“AI概览”和“AI对话模式”两项生成式AI功能时,大量使用网络出版商内容训练模型,却未给予合理补偿或拒绝选项。许多出版商依赖谷歌搜索获取流量,若拒绝内容被AI使用,可能面临搜索排名下降的风险。
(2)使用YouTube内容训练AI却未合理补偿创作者
YouTube用户上传内容时,必须授权谷歌将其数据用于包括AI训练在内的多种用途,且无法获得专项报酬。与此同时,谷歌还通过平台政策禁止其他AI公司使用YouTube内容训练模型,形成“数据壁垒”。
若指控被证实,被调查的商业行为可能违反禁止滥用市场支配地位的欧盟竞争规则。欧盟委员会表示将优先推进此项深度调查,并强调正式调查的启动并不代表对结果的预判。
来源:欧盟委员会
收集整理:德和衡网络安全与数据合规团队
德和衡网络安全与数据合规团队是一个长期专注于数据合规专项法律服务的团队。团队成员由北京、深圳、上海三地的律师组成。团队自2014年成立以来,核心成员均来自国内领先的网络安全企业360,积累了丰富的行业经验。团队致力于协助企业客户提升数据管理水平,预防及应对数据安全问题,提高数据质量,并充分发挥企业数据资产的最大价值。目前,团队已为房产、能源、智能制造、电子、车联网、大数据、金融、物流、电商等多个行业的领军企业提供全套数据合规法律服务。