当前,以生成式人工智能、大模型等技术为驱动的数字虚拟人产业正经历爆发式增长,成为推动传统产业数字化转型的重要引擎。与此同时,肖像权侵权、逝者复活伦理争议、“中之人”隐私开盒、虚拟劳动权益真空等风险日益凸显,为社会治理提出新挑战。近日,国家互联网信息办公室公布《数字虚拟人信息服务管理办法(征求意见稿)》(以下简称《办法》),回应了行业发展痛点与社会治理关切,为数字虚拟人服务划定了发展边界、明确了行为准则,是规范行业秩序、防范化解风险的重要制度保障。
一、数字虚拟人成为智能经济新形态,亟需破除发展障碍
2026年《政府工作报告》提出,“打造智能经济新形态,深化拓展‘人工智能+’”。数字虚拟人是利用图形学、数字图像处理或者人工智能等技术,借助真人驱动或计算驱动,模拟人类外貌、行为、交互能力等特征的虚拟人物形象。数字虚拟人凭借低成本、强交互、高效率、全天候等显著优势,快速成为智能经济发展的重要抓手。一是底层技术迭代,重构智能经济生产力。基于深度学习的形象生成、语音合成、动作捕捉、情感计算等技术日趋成熟,数字虚拟人的外观逼真度、交互自然度、智能响应能力均实现质的飞跃,能够替代或辅助人类完成内容生产、客户服务、教育培训等一系列任务。与此同时,催生出数字虚拟人直播基地、虚拟偶像经纪、数字员工外包等新业态,优化了智能经济产业结构,培育了新质生产力。二是多元场景渗透,拓展智能经济新空间。数字虚拟人深度嵌入实体经济各领域,政务服务、电商直播、文旅宣传、医疗科普等多元应用场景需求大幅提升,成为传统产业数字化转型的重要抓手。全国人大代表刘庆峰建议,加快虚拟人等技术在适老助残领域的应用,提供智能陪伴与就医指导。国际数据公司IDC预测,2026年中国AI数字虚拟人市场规模将达到102.4亿元。三是激活消费潜能,释放智能经济新需求。数字虚拟人作为新型数字消费载体,激活了情感消费、虚拟陪伴、数字藏品等新兴消费需求,推动消费从功能性向情感性、从物质性向虚拟性延伸。这种消费形态的演进,为智能经济发展注入了新动能,成为扩大内需、促进消费的新增长点。
与此同时,相比以往人工智能应用,数字虚拟人体现出鲜明、复杂的技术风险特征。一是数字身份的迷惑性,技术快速迭代推动数字虚拟人达到形神兼备、双商在线的逼真状态,极易导致用户产生认知失调,为虚假宣传、电信诈骗等提供技术温床,例如非法团伙利用明星形象进行数字虚拟人直播实施“跨时空恋爱”骗局,或发布“撞脸”明星的数字艺人游走法律边缘,严重侵害用户知情权。二是行为操纵的隐蔽性,数字虚拟人借助算法模拟情感反应机制,与用户建立情感联结,对心理状态和行为模式产生深层次影响,其基于完美人设的消费诱导隐蔽性远超传统广告,且具备24小时运营、规模化复制等特点,一旦涉及虚假宣传,影响范围远超真人主播。三是人格变现的伦理性,算法驱动下原型自然人的人格特征被转化为可无限复制的数字资产,真人驱动下“中之人”劳动被技术遮蔽,逝者形象“复活”更挑战生死边界,人格要素的商品化倾向要求治理规则回应尊严保护与经济发展的价值平衡。四是责任链条的复杂性,数字虚拟人涉及技术支持者、服务提供者、使用者、传播平台等多元主体,责任边界模糊,而电商直播间、银行、博物馆等使用者往往直接面向公众服务,一旦出现侵权内容,容易产生责任真空。
二、坚持以人为本,系统构筑数字虚拟人治理体系
面对数字虚拟人服务引发的复杂风险挑战,《办法》坚持以人为本的价值导向,从身份告知、授权同意、特殊保护、多元共治四个维度系统构建治理体系,为行业健康发展划定边界、明确准则。
(一)强化身份告知披露,提升用户辨别能力
破解数字身份迷惑性风险,关键在于打破技术黑箱,保障用户知情权。《办法》构建起覆盖服务全流程的身份告知与披露机制,着力提升用户辨别能力,从源头上防范虚假误导。一是借鉴内容标识制度要求,强制进行身份告知。《办法》要求自数字虚拟人服务开始,需在其展示区域全程进行显著提示标识,杜绝直播等场景下用户对数字虚拟人身份的误认混淆问题。二是延续内容标识制度思路,压实全链条主体责任。《办法》要求服务提供者、服务使用者、传播平台均需承担身份告知义务和内容安全管理责任,实现了从技术源头、内容生产到内容传播的闭环管理,对风险做到事前监测预警、事中应急处置、事后消除影响。三是禁止借助相似形象误导受众,重点整治“擦边球”行为。通过相似形象提高潜在信任感、谋取不当商业利益的违规行为在网络上更为常见,对此,《办法》明确禁止使用与特定自然人高度相似的肖像或者声音等,对行业乱象进行有效回应。
(二)明确授权同意要求,筑牢人格保护底线
规范人格要素商业化利用,核心在于确立权属清晰、授权明确、用途可控的治理规则。《办法》建立健全授权同意机制,强化人格权益全链条保护,有效回应数字虚拟人服务中的人格变现伦理性风险。一是强化人格要素的专项授权制度。肖像、声音、姓名是数字虚拟人“人格特征”的核心,也是人格尊严的外在载体。《办法》确立“识别性”标准,规定未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务。二是规范个人信息的处理规范。《办法》第七条规定,任何组织和个人使用自然人敏感个人信息用于建模、形象生成等活动的,应当取得自然人同意。自然人撤回同意后,应删除相关个人信息,不得以任何形式留存个人信息或者用于其他用途,法律、行政法规另有规定的除外。三是完善逝者近亲属相关利益的特殊保护。逝者形象承载着近亲属的情感利益和社会公众的集体记忆,其数字化“复活”涉及生死边界、伦理底线和文化价值。《办法》第七条规定,使用死者个人信息的不得侵害他人合法权益,并尊重逝者的遗愿。在保障亲属情感利益的同时,防止逝者形象被商业化滥用或历史记忆被篡改,维护社会公共利益和公序良俗。
(三)聚焦特殊群体利益,回应伦理价值关切
防范数字虚拟人服务对弱势群体的特殊风险,关键在于建立差异化保护机制,筑牢社会伦理底线。《办法》针对未成年人等特殊群体,以及公共服务等重点领域,作出专门规范,体现以人为本的治理温度。一是强化未成年人保护。《办法》第十条规定,禁止诱导未成年人沉迷数字虚拟人服务,不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系,以及含有可能引发或者诱导未成年人模仿不安全行为等可能影响其身心健康的服务。二是维护英雄烈士等人物形象。《办法》第十一条规定,不得将英雄烈士等人物形象用于商业用途,不得歪曲、丑化英雄烈士等人物形象,维护社会公共利益与伦理底线。三是保障真人驱动数字虚拟人背后的劳动者权益。真人驱动型数字虚拟人背后的真人演员享有劳动报酬、人格尊严、隐私保护等权益,第十一条规定,不得侵害真人驱动数字虚拟人的真人驱动方的个人信息、择业自由等权利。四是对特殊场景予以规范。《办法》对在人工智能拟人化互动服务、公共服务等重点领域使用数字虚拟人服务作出了专条规定,有效衔接各领域法律法规,压实使用者主体责任,提出行业性规制要求,防范技术应用冲击社会文化价值。
(四)强化使用者责任,完善多元治理机制
破解责任链条复杂性难题,关键在于突破“技术中立”迷思,压实全链条主体责任。《办法》将使用者提升为重要规制对象,构建多元主体协同治理格局,着力消除责任真空地带。一是在多个条款对服务的提供者和使用者同步作出要求。《办法》第七条至第十五条提出的诸多权益保护要求、禁止性规定和合规义务,同时适用于数字虚拟人服务的提供者和使用者,体现了将使用者提升为主要规制对象的新定位。二是强化网络传播平台审核管理责任。《办法》要求传播平台建立完善内容管理制度,对数字虚拟人入驻、内容发布、直播活动等进行严格审核,配备与技术风险相匹配的审核力量。三是完善用户投诉举报机制。《办法》第二十条规定,建立便捷高效的用户申诉和公众投诉、举报机制,对涉及数字虚拟人的侵权、虚假宣传等投诉及时核查处理。四是加强行业自律和标准化建设。支持行业协会制定自律公约、技术标准、最佳实践指南,推动行业自我约束、自我规范、自我提升,营造安全、可信、可持续的数字虚拟人产业发展环境。
三、结语
数字虚拟人是人工智能技术与实体经济深度融合的重要载体,是培育新质生产力、打造智能经济新形态的关键领域。《办法》立足数字虚拟人服务的小切口,坚持以人为本划定行为边界,以场景化规制防范复杂风险,是完善人工智能治理体系的重要制度创新。
展望未来,随着技术迭代演进,数字虚拟人的逼真程度和智能水平将持续提升,其社会影响和治理挑战也将更为深远。应加快《办法》落地实施,推动形成政府监管、行业自律、企业履责、社会监督相结合的多元共治格局,在鼓励创新与防范风险之间寻求动态平衡,为数字虚拟人产业营造安全可信的发展环境,助力智能经济高质量发展。(作者:李强治,中国信通院政策与经济研究所副所长)












PC版