2026年4月10日,国家互联网信息办公室、国家发展和改革委员会、工业和信息化部、公安部、国家市场监督管理总局五部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),自2026年7月15日起正式施行。这一举措标志着我国在人工智能拟人化互动服务领域迈出了规范治理的关键一步,旨在促进该领域健康有序发展,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。

近年来,随着情感计算、多模态交互等技术的加速演进,人工智能拟人化互动服务迅速崛起。从智能客服到心理疗愈,从适幼照顾到适老陪伴,这些服务通过模拟自然人人格特征、思维模式和沟通风格,与用户进行持续性的情感互动,在多个领域展现出广阔的应用前景。然而,高度拟人化也引发了情感依赖、认知混淆、隐私泄露等新型风险。例如,用户可能因过度依赖虚拟陪伴而忽视现实社交,甚至在极端情况下因虚拟互动的误导而产生自残自杀等危险行为。此外,未成年人作为特殊群体,其认知体系尚未完善,更容易受到虚拟互动的负面影响。因此,制定专门的管理办法,规范AI拟人化互动服务,已成为迫切需求。
新规核心内容:明确合规要求,强化用户与未成年人保护1. 划定服务边界,禁止不当内容《办法》明确规定,提供拟人化互动服务不得生成危害国家安全、荣誉和利益,煽动颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一等内容。同时,禁止生成鼓励、美化、暗示自残自杀等损害用户身体健康,或者语言暴力等损害用户人格尊严与心理健康的内容。这些规定旨在从源头上杜绝不良信息的传播,保护用户的身心健康。
2. 标注互动身份,防止认知混淆为防止用户将虚拟互动误认为真实人际关系,《办法》要求服务提供者履行人工智能生成合成内容标识义务。当发现用户存在沉迷倾向或使用时长过长时,应采取弹窗等更显著的方式强化提示提醒,引导用户建立正确的使用预期。此外,服务提供者还需向用户提供便捷的退出途径,确保用户能够随时终止虚拟互动,回归现实社交。
3. 严禁诱导行为,保护真实关系《办法》明确禁止服务提供者过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系。同时,禁止通过情感操纵等方式,诱导用户作出不合理决策,损害用户合法权益。这些规定旨在维护健康的人际关系,防止虚拟互动对现实生活的负面影响。
4. 特别保护未成年人,筑牢成长防线针对未成年人群体,《办法》作出了更为严格的规定。拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务。向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意。此外,服务提供者还需建立未成年人模式,提供定期现实提醒、使用时长限制等设置,支持监护人接收安全风险提醒、屏蔽特定角色、限制充值消费等。
新规实施意义:促进健康发展,提供中国方案《办法》的出台,不仅为我国人工智能拟人化互动服务的健康发展提供了坚实的制度保障,也为全球应对类似前沿挑战贡献了兼具前瞻性与实践性的“中国方案”。通过明确合规要求、强化用户与未成年人保护,《办法》有助于引导企业规范经营,推动行业向上向善发展。同时,预留的准备期也为企业提供了合规自查、技术升级和制度调整的时间,确保新规能够平稳有序实施。
展望未来,随着技术的持续演进与应用场景的不断拓展,人工智能拟人化互动服务的治理也需保持动态适应与持续完善。我们期待在政府、企业、社会等多方共同努力下,能够形成多元共治的人工智能治理生态,让人工智能更好赋能美好生活,携手迈向人机和谐、文明进步的未来。