引言
2026年5月7日,欧洲议会与欧盟理事会达成临时协议,通过了AI法案重大修订(Omnibus)。其中一条核心变化迅速在出海企业圈传开:机械设备被豁免直接适用AI法案。有人松了口气——“AI合规暂时不用管了。”
这个判断是错的。
豁免改变的是监管路径,不是监管意图。AI安全要求被整体转移进机械法规框架,欧委会保留随时通过授权立法加严的权力;嵌入式AI产品的合规截止日从2026年8月推迟至2028年8月,这不是放宽,而是给企业两年时间备战。
合规战场没有消失,只是换了入口。谁先搞清楚这个入口怎么走,谁就先拿到欧洲市场的通行证。
一、监管规则的变迁
双法并行的压力时代(2024—2026年3月)
2024年,AI法案(EU Regulation 2024/1689)以“风险分级”为核心正式生效,将“作为安全组件的AI系统”列入高风险类别,要求第三方合规认证。新版机械法规(EU Regulation 2023/1230)同步取代旧机械指令,首次将“使用机器学习、具备自我进化行为”的AI机械系统纳入须由公告机构(Notified Body)评估的高风险范围。
两法并非相互替代,而是同时适用。问题在于,两法独立设计,定义不对齐,义务归属不重合——制造商面对的现实是,只有一款产品,却要应对两套技术文件、两套认证流程、两套责任框架。这就是“双轨监管”。
Omnibus修订落地(2026年5月7日)——路径重塑
协议的核心逻辑:机械领域与AI法案的重叠部分,直接适用AI 法案的路径被关闭,改由机械法规作为统一监管入口;欧委会获得授权,可通过授权立法补入针对高风险AI系统的具体安全要求。新版机械法规已将“AI用于安全功能”(包括AI安全控制、自演化算法、AI避障和AI安全监控)纳入机械安全要求,对机器人、智能制造与人机协作行业影响深远。
合规截止日同步调整:嵌入式AI产品高风险合规截止日推迟至 2028年8月2日;涉及生物识别、关键基础设施、执法等领域的 AI系统须在2027年12月2日前完成合规。
豁免之后的真实格局
机械豁免,不等于AI安全合规豁免,只是合规路径归一化。好消息是:双线并行的文件和认证工作现在可以整合进机械法规框架,责任归属更清晰。但有两点不能忽视:其一,欧委会的授权立法权力意味着现在的“轻量版”要求随时可以加严;其二,两法之间的定义不兼容问题依然存在,是制造商合规评估中必须独立处理的灰色地带。
窗口期是真实的,但它是“必须行动”的倒计时,不是“可以等待”的缓冲带。
二、中国机器人出海现状
出海浪潮与欧洲战略地位
工业机器人、协作机器人(Cobot)、AGV/AMR,乃至人形机器人,正在欧洲制造业、物流业和医疗行业加速渗透。欧洲市场的吸引力,不只在于订单体量,更在于“高地效应”——能在欧洲卖出去的产品,在其他市场的溢价空间和客户信任度都会随之提升。
但欧洲也是合规压力最密集的市场。CE标志、机械法规、AI法案、GDPR,每一层都是真实的门槛。对面向欧洲的机器人企业而言,竞争重心不再只是成本和性能,而是能否同时满足机械安全、AI合规与供应链责任的综合要求。
供应链角色决定合规责任
出海企业首先要明确自己在欧盟供应链中的角色——这直接决定合规义务的轻重。
以自有品牌投放欧洲市场的中国企业,法律上是“提供者”(Provider),须承担最重的一套合规义务:风险管理体系、数据治理、技术文件、日志记录、透明度与人工监督能力。通过欧洲经销商进入市场的,则须注意:AI法案对“进口商”的有明确要求(Article 23)——进口商须核实产品合规、确保文件齐备。中国制造商的合规状态,直接影响欧洲合作伙伴能否正常销售,一旦被认定不合规,整条销售链都会受到牢连。
三个最危险的认知误区
误区一:“CE标志拿到了,AI不用管。”CE标志解决的是整机机械安全,而AI作为安全功能的子系统合规是独立要求,两者文件体系、测试逻辑和责任归属各不相同,CE标志无法覆盖AI合规的全部内容。
误区二:“豁免了,不急。”2028年8月是真实的法律截止日,欧委会还保留随时收紧要求的权力。越晚启动,留给产品迭代和文件建设的时间越少。
误区三:“客户怎么用,是客户的事。”两部法规都设有“实质性修改”条款:如果欧洲客户对AI系统进行了超出制造商设计范围的修改,客户可能从“部署者”变成“提供者”,原有认证失效并需重新评估。这个风险的根源,往往在于制造商最初的产品架构和合同条款——这是出海企业最容易忽视、也最可能引发连锁责任的盲区。
三、核心法律解读
AI功能分类:什么触发最严义务
并非所有搞载AI的机器人都需要走最严格的合规路径,关键问题只有一个:这个AI功能一旦失效,是否直接危及人员安全?
协作机器人的碰撞避免、工厂自主导航、药品质检AI——这些构成“安全组件”,须走高风险路径。生产排程优化、库存预测、包装外观检测——通常不构成安全组件,合规要求相对宽松。灰色地带如预测性维护AI,取决于它是“提示保养”还是“判断事故风险并触发停机”,两种场景的合规路径截然不同。
实操建议:对每项AI功能单独做分类判断并留存记录。边界模糊时,倒向于按高风险处理,并尽早与公告机构进行预评估——让合规路径影响产品架构,而不是事后补救。
两法定义错位:Omnibus后仍存在的灰色地带
机械法规Annex I 将“AI机械”定义为“具备自我进化行为”的系统,把自我进化作为触发高风险评估的必要条件;AI法案则将部署后的自适应能力定义为“可选特征”。结果是:同一个AI系统,在两法下可能得到不同的高风险认定结论。这个定义错位在 Omnibus后依然存在,因为机械法规本身的文本并未修改。
实操应对:针对两法分别独立评估,不能用一个结论代替另一个。欧委会的高风险AI认定指引时间表尚不明确,在此之前,并行评估是唯一稳妥的选择。
“实质性修改”陷阱:出海企业最容易踩的雷
两法的实质性修改条款逻辑一致:任何人对已上市产品的AI系统进行实质性修改,将自动承担原提供者的全套合规义务,原有认证随之失效。
四个场景说明边界:
① 客户用自有数据重新训练AI模型→高风险,很可能构成实质性修改,客户成为提供者,原认证失效。
② 客户在制造商规定的参数范围内调整设置→安全,属于允许操作。
③ 制造商在合规评估中预先定义好持续学习的边界→安全,不构成修改。
④ 客户将数据贡献给行业联盟、联盟模型更新后部署回工厂→ 法律灰色地带,尚无监管定论。
防御这个陷阱,靠的是产品架构和合同条款:在技术层面通过版本控制、参数锁定、更新身份验证明确边界;在合同层面用具体示例界定哪些操作触发重新评估义务。
四、操作建议
窗口期是真实的,但它不会自动转化为优势。以下六项建议按优先级排列,目标是帮出海企业把监管变量转化为可执行的产品与合同动作。
① 立即:产品AI功能分类自查
把产品上所有AI功能列出来,逐项回答:失效是否危及人员安全?答案清晰地记录在案;说不清的,按高风险处理并尽早寻求公告机构预评估。这是所有后续动作的起点。
② 架构层:把合规边界嵌入产品设计
将“AI作为安全功能”与“AI作为效率工具”在系统层面分离,减少不必要的高风险认定范围。同时通过版本控制、参数锁定和更新身份验证,让允许操作与触发重新认证的修改之间的边界被技术手段强制执行,而非只停留在合同文本里。
③ 文件层:统一架构,一套文件覆盖两套要求
将机械法规技术文件(Technical File)与AI安全技术文档整合为统一架构,由同一团队维护,避免两套文件在表述上产生矛盾。核心清单:训练数据说明、风险评估与测试报告、日志机制设计、透明度手册、人工接管路径记录。
④ 合同层:把角色边界写进销售合同
在面向欧洲客户的合同和使用说明中,明确定义“允许的参数调整”与“构成实质性修改的操作”并附具体示例;要求客户在任何 AI系统修改前获得书面确认;参与数据联盟场景须在协议中指定第三方为Provider,参与方保持Deployer身份。这套语言不只保护制造商,更帮客户避免无意间承担提供者责任。
⑤ 关注RSQC新认证机制
欧盟正在建立机器人技能认定中心(RSQC),2026年启动试点。虽定位为商业性能验证而非法规认证,但获得认定的产品有望在公告机构评估中获得简化,并在客户采购决策中形成差异化优势。建议跟踪进展,考虑参与首批试点。
⑥ 内部:建立跨部门合规工作组
合规的最大瓶颈往往不是法规理解不够,而是法规语言和工程语言之间的翻译失败。建议成立覆盖产品、研发、法务、市场的轻量级工作组,目标明确:把机械法规和AI安全要求翻译成产品设计指标、测试用例和文档模板。
结语
机械豁免之后,合规的入口变了,出口没变:产品必须安全,AI 安全功能必须可验证,责任链条必须清晰。
2026—2028年的窗口期,留给出海企业做一件事:在合规成为强制门槛之前,把它变成竞争优势。欧洲客户面对的真实困境,是AI机器人部署中的合规不确定性。中国企业如果能在这个节点上,把这种不确定性变成可以背书的承诺,就是在帮客户解决他们最头疼的问题——这是在欧洲建立长期采购关系最扎实的起点。
先完成合规的企业,拿到的不只是认证,而是定价权和客户信任。这个窗口,值得认真对待。
作者简介:
娄鹤,德和衡(上海)律师所高级联席合伙人
娄鹤律师在信息安全、数据保护、隐私合规及出海服务领域拥有丰富经验,精通境内外法律与监管要求。曾为金融企业、上市公司及知名互联网客户提供各类法律服务,特别擅长为企业提供跨境业务、新技术应用及符合国际标准的全面法律支持,帮助客户有效应对技术创新带来的法律挑战,保障其全球业务的顺利开展。
微信:Ruok2024
邮箱:louhe@deheheng.com