DC娱乐网

成龙工作室已报案追责造谣者

当71岁的成龙在社交平台轻轻推送新片海报时,那些用AI生成的"病床照"谣言瞬间土崩瓦解。这场闹剧背后隐藏着更严峻的事实—

当71岁的成龙在社交平台轻轻推送新片海报时,那些用AI生成的"病床照"谣言瞬间土崩瓦解。这场闹剧背后隐藏着更严峻的事实——11月11日成龙工作室锁定的23个造谣账号,使用的已不是传统PS技术,而是能自动生成逼真图像的AI工具。北京市京师律师事务所黄福涛律师指出,这类行为可能触犯编造、故意传播虚假信息罪,最高可判7年。

像素级破绽:AI伪造的"死亡证明"如何现形

计算机视觉专家在分析成龙"病床照"时发现典型AI痕迹:病床栏杆出现不符合物理规律的扭曲,手指关节处皮肤纹理重复率高达83%,这与真实人体生物特征的唯一性相矛盾。更明显的破绽在于医疗监护仪数值——AI生成的"82/54"血压值与"98%"血氧饱和度组合,在医学上根本不可能同时出现。

对比传统PS修改,生成式AI的伪造具有系统性特征。普通修图会在边缘留下锯齿或色差,而AI生成的图像问题往往出现在内容逻辑层面。例如在另一张伪造的"成龙化疗照"中,输液管与手臂的接触面出现了光线方向矛盾,这种违背物理规律的错误在专业软件中通过频域分析工具可以清晰识别。

从PS到Deepfake:造假技术进化的法律困局

2024年电影《暗影边缘》剧照被篡改成"病床照"事件,暴露出AI造假的新趋势。传统谣言需要嫁接真实照片,而生成式AI可以直接凭空制造"证据"。这种技术飞跃使得造谣成本降至原来的1/20——据测试,制作一张以假乱真的病床照,用专业PS需要6小时,而AI工具仅需18分钟。

《互联网信息服务深度合成管理规定》第十七条明确规定:"深度合成服务提供者提供智能对话、合成人声、人脸生成等具有生成或者显著改变信息内容功能的服务的,应当进行显著标识。"但现实情况是,今年涉及成龙的两次AI造谣事件中,没有一张图片遵守这项2023年1月实施的新规。

技术专家演示了识别AI视频的"眨眼测试":正常人每分钟眨眼15-20次,而早期Deepfake生成的视频人物眨眼频率不足5次。虽然最新技术已能模拟自然眨眼,但瞳孔对光反应仍存在延迟异常。这些细微破绽需要借助专业软件分析,普通网民难以凭肉眼识别。

三招识破AI谣言:每个人都该掌握的"数字防身术"

面对越来越精密的AI造假,普通用户可以通过三个简单方法初步判断:首先检查光源一致性,用手机相册的编辑工具调高对比度,观察人物与环境的阴影方向是否矛盾;其次注意生物特征,AI生成的人物通常发际线过于完美,牙齿排列异常整齐;最后使用反向图片搜索,成龙工作室正是通过这种方式确认"病床照"篡改自电影剧照。

法律界人士特别提醒,转发超过500次或浏览超5000次的网络谣言即构成刑事立案标准。在成龙案例中,被锁定的23个账号均达到这一传播量级。公安机关"净网"专项行动数据显示,今年已清理涉企网络谣言信息26万余条,关停违法违规账号1.1万余个,其中AI生成内容占比从去年的12%飙升至今年的34%。

当成龙在片场晒出工作照时,他不仅粉碎了谣言,更示范了最有效的应对策略——用真实的工作动态让AI谣言不攻自破。这场"数字谋杀"闹剧的结局,是造谣者面临法律严惩,而公众收获了识别AI造假的重要一课。记住,下次看到名人"病床照"时,先找找那些违背物理规律的像素破绽。