随着人工智能技术的飞速发展,高逼真度数字虚拟人从科幻概念走入现实,在娱乐、电商、教育、陪伴等场景中广泛应用,同时出现新治理“盲点”。近年来,数字虚拟人领域“撞脸”“碰瓷”名人、任意“复活”逝者、深度伪造实施诈骗,以及恶意传播谣言、侵害“数字劳工”权益、算法操控诱导非理性消费等问题频发,不仅侵害自然人合法权益,也扰乱市场秩序,引发广泛的社会争议与伦理担忧。在此背景下,国家网信办适时制定《数字虚拟人信息服务管理办法(征求意见稿)》(以下简称《办法》),标志着我国对数字虚拟人这一新兴业态的治理将迈入全面、系统的法治化规范新阶段。《办法》体现了三个方面的突出特点:

一是及时回应社会关切,维护数字时代人格尊严。数字虚拟人技术的核心特性在于其“高逼真”,但这也恰恰是风险之源——当虚拟人足以混淆真人身份,其行为边界便极易突破法律甚至伦理底线。从北京互联网法院的实践来看,近年来,以深度伪造名人声音虚假带货、数字人平台被诉侵害人格权案为代表的相关纠纷日益增多。数字技术越发展,数字时代的人格尊严与人类既有社会秩序就越需要被坚定维护。《办法》的出台,正是对这一核心矛盾的深刻回应与制度性解答。它首次系统地将数字虚拟人定义为“存在于非物理世界,利用图形学、数字图像处理或者人工智能等技术,借助真人驱动或者计算驱动,模拟人类外貌,具备声音、行为、交互能力或者性格等特征的虚拟数字形象”,突出了数字虚拟人的“类人”特征。这一定义,将游离在现有法律规范边缘的“数字分身”“AI偶像”等形态正式纳入监管视野,为司法实践提供了明确的规制对象,其根本宗旨在于“以人为本”,确保技术进步服务于人,而非消解人的主体性。

《办法》从多个维度筑牢了人格尊严的数字防线。第一,强化个人信息与人格权保护。针对“撞脸”“碰瓷”等乱象,《办法》明确规定,任何组织和个人使用敏感个人信息用于建模、形象生成、场景构建等活动的,必须取得自然人的单独同意。这是对《中华人民共和国个人信息保护法》中“单独同意”规则在数字虚拟人场景下的具体化,从源头上遏制了对自然人人格特征的滥用。《办法》同时强调任何组织和个人在提供、使用数字虚拟人服务的过程中,不得以丑化、污损等形式侵害他人人格权。这是《中华人民共和国民法典》(以下简称《民法典》)人格权相关规范在数字虚拟人这一新兴场景中的具体落地与延伸适用,强调了对数字空间中人格尊严的保护。

第二,严格规范“复活”逝者行为。对于触及人类伦理底线的任意“复活”逝者行为,《办法》设定了严格的前提条件,即必须尊重逝者生前意愿,不得侵害其近亲属的合法权益。这既是对生者情感利益的呵护,也是对逝者人格尊严的延续性保护,维护了社会的基本伦理秩序。

第三,保障“数字劳工”合法权益。针对虚拟人产业中可能存在的“数字劳工”权益保障不足问题,《办法》强调,在利用真人驱动数字虚拟人时,必须保障个人信息、自主择业等合法权益,坚决防止技术异化对人的剥削。

这些规定共同传递出一个清晰信号:在虚拟世界,“真人”的合法权益不可侵犯。技术可以模拟人类,但绝不能替代人类或践踏人类的人格尊严与法律权利。

二是《办法》紧扣“高逼真”特性,精准治理两大核心痛点:形象“混淆”与内容“乱象”。数字虚拟人管理的最大挑战,在于其足以“以假乱真”的能力可能导致的身份欺诈与信息失真。《办法》紧紧围绕两个关键环节展开。

在形象规范方面,《办法》重点规制数字虚拟人形象可能造成的“混淆”现象。明确规定未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务,将《民法典》中关于自然人对肖像等人格标识许可使用的权利延伸至“数字分身”场景。借鉴《中华人民共和国反不正当竞争法》中关于禁止混淆、引人误认的规定,禁止可能使公众误认为与特定自然人存在关联,或利用虚拟形象“蹭流量”“搭便车”的行为。《办法》还与《人工智能生成合成内容标识办法》相衔接,进一步明确了数字虚拟人服务过程中的全程提示标识义务,有利于规范数字虚拟人的制作和使用行为,规范相关市场秩序。

在内容治理方面,《办法》为利用数字虚拟人生成和传播信息划出了明确的“底线”和“高线”。“底线”即法律红线,严禁利用虚拟人生成、传播任何危害国家安全、从事违法活动、侵害他人合法权益、破坏社会公序良俗的内容。“高线”则是价值引领,明确提供和使用数字虚拟人服务应弘扬社会主义核心价值观,尊重社会公德和伦理道德,营造良好网络生态环境。此外,还明确了对其他不良内容的防范和抵制。这种“划底线”“防不良”与“树高线”并举的思路,旨在确保虚拟世界的信息流清朗有序,技术应用向上向善。特别是《办法》还考虑到数字虚拟人在人工智能拟人化互动服务、交互服务方面有广泛的应用场景,强调不得过度诱导用户,禁止诱导未成年人沉迷数字虚拟人服务,不得提供可能危害未成年人身心健康的服务,为用户构筑“真实的虚拟世界”的数字护盾。

三是《办法》顺应人工智能技术普及化趋势,构建了覆盖全链条、多主体的责任共同体,并在使用者义务层面实现了规范创新。过去,复杂技术的治理责任往往集中于少数大型平台或服务提供商。然而,随着人工智能工具使用门槛降低,任何普通用户都可能成为数字虚拟人的“创造者”和“发布者”。这一深刻变化,要求治理框架必须同步演进。

《办法》敏锐地洞察到这一趋势,明确区分并规定了服务提供者、技术支持者、服务使用者等多方主体的义务。对于服务提供者,其要求涵盖了算法安全、数据合规、内容审核、未成年人保护等全方位主体责任。尤为值得关注的是,《办法》在使用者责任规范上实现了重要创新,将“责任自负”原则具体化、场景化,如禁止身份冒用,明确规定不得利用数字虚拟人绕过人脸识别、语音识别等身份认证机制;如在数据处理活动、信息制作发布、全程标识方面同样明确了使用者的义务。

这一系列规定标志着治理理念的深刻转变,意味着享受技术红利的每一个人,也应承担相应的责任。这推动了从“技术消费者”到“责任共担者”的观念转变,是构建“共建共治共享”的数字社会治理格局的关键一步。

《办法》的制定,是我国应对前沿技术社会风险、引导产业规范发展的又一重要探索。它既充分吸收了法律法规、规章制度在安全治理、伦理规范方面的经验,又紧密结合了虚拟人“高逼真”“强交互”的技术特点,以及技术普及化带来的主体多元化趋势。该办法以回应社会关切为出发点,以解决核心痛点为着力点,以构建责任共同体为落脚点,为虚拟人产业的可持续发展提供了清晰的规则指引。期待《办法》能在征求各方意见基础上进一步完善,成为人工智能时代数字治理体系的重要规范,也为人民法院审理相关案件提供重要参考。(作者:孙铭溪,北京互联网法院党组成员、副院长)