新闻资讯

媒体聚焦 | 聚焦情感陪伴服务:马丽红律师解析分级分类治理路径

2026-03-16

  深夜,成都李女士在某“情绪小店”购买了价值8888元的“情绪疗愈套餐”。屏幕那头的“情感导师”承诺帮她挽回婚姻。3个月后,丈夫依旧没有回家,她才发现这家机构根本没有心理咨询资质。而远在上千公里之外的济南,张先生频繁接收到“情绪小店月入10W,最暖心副业”“开线上情绪小店,半年赚22万!就靠3个简单招”的加盟宣发私信,看了让人蠢蠢欲动。

  中国情绪消费市场涵盖解压产品消费、情感服务咨询、AI虚拟陪伴、情绪安抚直播等多种业态。然而发展过程中,虚假承诺、隐私泄露、天价收费等问题也随之而来。

  今年伊始,江西、湖北已将情绪经济写入政府工作报告,并与提振消费结合在一起。而具备条件的情绪式、体验式相关职业也将被纳入国家职业分类体系。此外,《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称“暂行办法”)正向社会公开征求意见。从“行业”到“人”,我国情绪消费产业链正在逐步被纳入国家监管体系。

  从“控质稳价”到“归类界定”

  “情绪与提振消费的结合,带来了新的厚重解读。但也要看到,发展中还有一些短板需要补齐、堵点需要疏通。”经济学者陈思进对记者表示。

  陈思进认为,“付费获取情绪慰藉”成为新兴消费趋势的同时,一些问题不容忽视,主要集中在三方面:一,服务资质缺失、收费混乱。进行陪聊、哄睡等情绪慰藉服务的从业人员多无相关资质,却擅自提供类心理疏导服务,部分还隐含低俗内容;收费缺乏合理依据,部分平台包月服务定价高达3.8万元,存在严重溢价;二,虚假宣传盛行、刻意制造焦虑。商家夸大普通商品的“情绪治愈”功能,宣称盲盒可“缓解孤独”、玩偶能“舒缓负面情绪”,借消费者情绪焦虑诱导非理性消费,导致其陷入“越消费、越空虚”的困境;三,隐私保护缺位、产品质量堪忧。AI树洞等服务中,用户敏感信息易被泄露滥用;部分“解压神器”未通过3C认证,存在安全隐患,可能威胁消费者人身安全。

  记者注意到,当前,实体解压产品的安全、虚拟情感服务定价以及用户隐私保护等问题,均需进一步完善行业标准和法律法规。而不少消费场景中,也存在着服务边界与权益保障冲突、虚假宣传以及不合理定价突出等问题。有专家建议,相关部门应完善行业标准,加快标准建设,守住情绪经济底线。

  近年来,“捏捏乐”“水晶泥”等实体解压玩具在校园周边热销,但其安全问题长期存在,市场上许多此类产品为“三无”产品,或外包装信息不全。部分产品易破裂、部件易脱落,且带有诱人香气,存在儿童误食、小零件窒息、化学伤害等多重风险。

  对此,市场监管总局等六部门曾于2025年联合印发《儿童和学生用品安全守护三年行动方案(2025—2027年)》,强化儿童和学生用品质量安全监管,“全覆盖”重点产品、重点问题和重点领域,“全链条”治理生产、流通、使用环节安全隐患。同时,监管部门持续对生产集聚区、校园周边、电商平台等重点区域进行抽检和查处。

  近期,工业和信息化部牵头对GB 6675.1至GB 6675.4《玩具安全》4项强制性国家标准进行了修订,为玩具产品划定了更清晰的安全红线。针对社会关注度较高的“捏捏乐”“水晶泥”等“网红”玩具存在的质量安全问题,对相关产品有害物质的限量要求进行了优化完善。

  新版标准主要变化包括:增补了甲醛、总挥发性有机化合物、短链氯化石蜡、硼元素等10类有害物质限量要求;增加了明火装置玩具、食品造型玩具等新产品的技术要求;新增了面具等头戴玩具的阻燃性能技术要求等。

  由此可见,治理的核心在于严格执行新国标。消费者在选购时,务必认准强制性产品认证标志,并查看产品成分标识,避免购买“三无”产品。

  随着具备高度拟人化特征的AI智能体加速走入公众生活,虚拟陪伴、角色互动、情绪疏导等新型服务形态蓬勃发展,推动“情感经济”迈向产业化新阶段。其中,值得关注的问题是虚拟情感服务定价模糊和商业模式普遍脆弱。

  记者了解到,一个AI聊天机器人服务每分钟收费可达10元,而一位需要多年专业积累的心理咨询师时薪可能仅为300元左右。这种价格倒挂现象,反映出市场对“情绪价值”评估存在价格与价值严重脱节的混乱。

  当前,看似火热的AI伴侣应用,其实也面临巨大的合规挑战。从国际来看,以知名AI聊天机器人应用Replika为例,虽然其仍在疗愈细分市场深耕,但增长早已放缓。Character.AI曾凭借角色扮演火遍全球,却因内容合规问题频陷监管风波。

  对于该类服务如何进行归类监管,北京德和衡律师事务所常务副主任马丽红律师认为,应坚持“功能实质重于形式”的原则,根据交互深度、使用场景与潜在风险,将虚拟情感服务分为三类,实施分级管理。例如分为:一般陪伴类,以日常对话为主,重点落实AI身份披露和内容合规;角色沉浸类,如虚拟恋人、剧情互动等,因易引发情感依赖,须限制拟真设计、设置情感提醒机制;心理辅助类,涉及情绪疏导功能的,虽非医疗行为,但属高风险领域,必须明示“不具诊疗资质”,并配备危机干预流程。

  从“灰色地带”到“数据红线”

  2025年被广泛认为是AI智能体元年,生成式人工智能在自然语言处理能力取得突破后,依托多模态能力大幅提升了拟人化表现,但也产生了一系列的现实问题和法治挑战。其中,虚拟情感服务因涉及大量深度个人隐私,已成为数据泄露和滥用的高风险区。

  据报道,英国两家监管机构2月3日宣布,分别从数据保护和平台安全角度、依照不同法律对人工智能聊天机器人“格罗克”滥用问题展开调查。“格罗克”由埃隆·马斯克旗下人工智能企业xAI公司开发,并内置于马斯克旗下社交媒体平台X。近期,这一工具被滥用于生成基于真实人物的虚假性暴露内容,并在X平台上散播,受害者包括众多女性和未成年人,受到多国谴责。

  记者注意到,高度拟人化的AI陪伴应用在商业价值不断释放的同时,用户情感依赖、身份认知混淆、心理安全风险等问题日益显现,尤以未成年人、老年人等群体面临的潜在威胁更为突出。

  据了解,美国加州于2025年10月在全世界范围内首次通过了《AI陪伴聊天机器人法案》(SB243),这是美国首个针对AI陪伴聊天机器人的专项立法。2025年4月,欧盟委员会公布了旨在提升全球竞争力的“AI大陆行动计划”,扭转其在AI领域的落后局面。日本、韩国、新加坡等国家也相继推出伦理指南与行业标准。这标志着全球主要经济体正协同构建面向拟人化AI的治理共识。

  2025年12月,国家互联网信息办公室发布了暂行办法,明确将提供情感陪伴、虚拟角色及轻度心理辅助等功能的AI服务纳入规范范畴,标志着我国对拟人化人工智能的治理正式迈入系统化、法治化轨道。

  “暂行办法与美国纽约州、加州等地率先出台的立法均强调身份披露、危机干预(如自杀风险识别与转介)和未成年人特殊保护。”马丽红表示,中美在人工智能拟人化方面的监管目标基本一致,均致力于构建以身份透明、风险干预、弱势保护、内容安全为支柱的治理体系,共同回应技术发展带来的伦理挑战与社会风险。

  涉及监管具体举措,马丽红认为,首先,坚持“可知可辨”,严守人机边界。任何可能引发用户情感信赖的AI服务,必须通过清晰、显著的方式向使用者明示其人工智能属性,禁止利用真人形象、声音或行为模式进行虚假呈现,杜绝诱导性营销和情感欺骗。这是维护用户知情权与选择权的基本前提,也是防范认知错位的第一道防线。其次,强化“可防可控”,建立高风险响应机制。最后,突出“重点防护”,加强对特殊群体的权益保障。如面向未成年人的服务必须采取实名认证、使用时长管理、消费限制等措施,严控成瘾性设计和不当内容输出。面向老年人的服务则应防范“数字孝心”类情感操控营销,提升界面适老性与防骗能力。

  从“风险提示”到“精准治理”

  情绪消费具有高度个性化、隐私性和主观性,传统监管手段难以应对发展新特点。如何对情感类服务商进行资质审核和“界定商业行为与情感欺诈的界限”,一直是各平台合规管理的重点和难点。

  据了解,一些知名平台要求提供心理咨询师证书或相关专业证明,在内容分类上,将情绪服务细分为“娱乐陪伴”“轻度疏导”和“专业咨询”三类,并分别设定不同的定价区间和风险提示。“我们引入了动态定价参考系统,对于某类特定服务设定了最高建议价,超过这一价格的服务将触发额外审核流程。”某平台一位相关负责人对记者透露。

  风险预警机制也在发挥作用。当用户频繁购买高额情绪服务或在深夜大额消费时,系统会弹出理性消费提示。

  市场监管部门的评估体系对行业健康发展的作用更为重要。2024年至2025年,市场监管总局发展研究中心与值得买消费产业研究院,连续6个季度联合发布消费数据主题报告,该报告包括了消费者满意度情况等在内的用户情绪数据监测和分析,为行业提供有效参考。

  马丽红认为,从行业立法角度,必须注重制度衔接,完善全链条合规体系。相关服务须严格遵守网络安全法、数据安全法、个人信息保护法等上位法律要求,规范敏感个人信息的收集、存储与使用行为,不得超出用户授权范围进行数据加工或商业化利用。同时,加强算法机制透明度建设,定期开展影响评估与内部审计,留存关键操作日志,实现全过程可追溯、可监管。

  来源:法人杂志