公众人物肖像遭虚假技术滥用,有关法律与平台监管亟待完善

近期,多位公众人物和演员相继曝光遭遇深度伪造技术滥用的情况,引发社会广泛关注。此现象反映出当前网络生态中存的突出问题,也暴露出有关监管体系的薄弱环节。 问题的严峻性日益凸显。据了解,不法分子通过提取真实人物的声线、面部特征,利用深度学习等技术手段生成虚假视频和音频内容,用于制造虚假信息、进行商业欺诈。有公众人物表示,仅在过去半年就处理了数千条相关假内容,每天都有大量类似信息被发布。演员肖战、成毅、薛凯琪等多人均成为"AI换脸"的受害者,其肖像被擅自用于短剧、短视频创作,甚至被用于虚假代言。这些虚假内容不仅直接侵害个人权益,还可能误导公众、造成经济损失,有的甚至涉及诈骗犯罪。 技术进步与监管滞后的矛盾是问题根源。深度伪造技术的成本不断降低——应用门槛持续下降——使得不法分子更容易获取和使用这类工具。另外,虚假内容的识别难度大,传播速度快,给监管部门和平台带来巨大挑战。网络信息的海量性和实时性特征,使得事后处理往往力不从心。此外,一些平台对用户上传内容的审核机制不够完善,对违规行为的处罚力度有限,客观上助长了违法行为的蔓延。 影响范围正在扩大。从个人层面看,受害者的名誉权、肖像权、隐私权等多项权益遭到侵害,需要投入大量人力物力进行维权。从社会层面看,虚假信息的泛滥破坏了网络生态的真实性和可信度,公众的信息辨别能力面临严峻考验。从经济层面看,虚假代言、诈骗等行为造成消费者经济损失,扰乱正常的商业秩序。 法律框架正在逐步完善。民法典第一千零一十八条规定了肖像权保护,第一千零二十四条规定了名誉权保护。未经同意商用他人肖像、声音直接侵犯肖像权;生成虚假误导内容则损害名誉权。国家网信办等部门已先后出台《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等法规,要求对非真实音视频信息进行显著标识,禁止利用深度学习等技术从事违法活动。这些法律规定为打击深度伪造违法行为提供了有力支撑。 平台责任意识在提升。部分视频生成平台已开始采取主动措施,禁止生成明星、公众人物、网红等真实人物的肖像、视频、语音。这种自律行为虽然有限,但反映了平台对社会责任的认识。然而,仍有大量平台缺乏相应的防控措施,成为虚假内容的温床。 当前的对策需要多管齐下。一上,平台应强化内容审核机制,建立更加严格的人物肖像识别系统,对违规内容及时下架处理。另一方面,执法部门应加大对深度伪造违法行为的打击力度,对涉及诈骗、虚假代言等严重违法行为依法追究刑事责任。同时,应完善相关法律规定,明确平台的法律责任,建立更加有效的举报和处理机制。此外,提升公众的媒介素养和信息辨别能力也至关重要。

当技术迭代的速度超越社会规则建立的能力时,我们既不能因噎废食阻碍创新,也不可放任野蛮生长;深度伪造事件犹如一面棱镜,折射出数字化时代权利保护的新命题。如何在科技创新与人文关怀之间寻找平衡点,将成为检验社会治理现代化水平的重要标尺。正如《人民日报》近期评论所言:"给技术划出伦理红线,不是限制它的高度,而是确保它飞行的方向。"