bot.gif
取消
选择语言
确认
简体中文
繁体中文
English
close
正在加载
《怪奇物语》AI视频爆红网络,引发人们对深度伪造技术的担忧。
互联网 · 2026-01-16 07:50
865
摘要
摘录警告说,使用 Kling 的运动控制 AI 的演示凸显了新的风险,因为全身身份互换充斥着社交媒体 。
币界网报道:

本周,一段据称使用 Kling AI 的 2.6 版运动控制技术制作的视频在社交媒体上迅速走红。这段由巴西内容创作者 Eder Xavier 发布的视频显示,他完美地将自己的脸和身体与《怪奇物语》演员 Millie Bobby Brown、David Harbour 和 Finn Wolfhard 的脸和身体互换。

这些视频在社交平台上广泛传播,在X平台上的观看次数已超过1400万次,此后又发布了其他版本。这些视频也引起了技术专家的关注,其中包括a16z的合作伙伴Justine Moore,她分享了Xavier在Instagram账号上发布的视频。

“我们还没有做好准备,应对人工智能将如何迅速改变生产流程,”摩尔写道“一些最新的视频模型对好莱坞有着立竿见影的影响。可以以极低的成本进行无限次的角色替换。”

随着图像和视频生成工具的不断改进,出现了像谷歌的 Kling 这样的新型号。Veo 3.1纳米香蕉,面部融合以及 OpenAI 的索拉2研究人员警告说,随着高质量合成媒体的普及,病毒式传播的视频片段中出现的技术可能会迅速从孤立的演示中传播开来。

滑坡效应

尽管观众对换身视频的质量感到惊叹,但专家警告说,这无疑会成为一种工具……冒充诈骗.

“闸门已经打开。窃取个人的数字形象——声音、面孔——从未如此容易,现在,只需一张图片就能将其栩栩如生地呈现出来。没有人是安全的,”网络安全公司首席调查官艾曼纽·萨利巴 (Emmanuelle Saliba) 表示。GetReal安保人员告诉解密。

他说:“我们将开始看到各个层面的系统性滥用,从一对一的社会工程到有组织的虚假信息宣传活动,再到对关键企业和机构的直接攻击。”

萨利巴表示,《怪奇物语》演员出演的病毒式传播视频表明,目前针对虐待行为的防护措施有多么薄弱。

“现在只需几美元,任何人都能用一张照片生成政治人物、名人、首席执行官或普通人的全身视频,”她说。“目前没有任何针对个人数字肖像的默认保护措施,也没有任何身份保证。”

对于宾汉顿大学电气与计算机工程系教授余晨来说,全身角色替换超越了早期深度伪造工具中仅用于面部操作的范畴,并带来了新的挑战。

“全身角色替换代表着合成媒体能力的显著提升,”陈告诉解密“这些系统必须同时处理姿态估计、骨骼跟踪、服装和纹理迁移以及整个人体形态的自然运动合成。”

除了《怪奇物语》之外,创作者们还发布了莱昂纳多·迪卡普里奥在电影《华尔街之狼》中身体互换的视频。

陈教授表示:“早期的深度伪造技术主要在有限的操控空间内运作,侧重于替换面部区域,而对画面的其他部分基本不做任何改动。检测方法可以利用合成面部和原始身体之间的边界不一致,以及头部运动与身体运动不自然同步时产生的瞬态伪影。”

陈继续说道:“虽然金融诈骗和身份冒用诈骗仍然令人担忧,但其他一些滥用途径也值得关注。”陈表示,“未经同意的私密影像是最直接的危害途径,因为这些工具降低了制作以真人为主角的合成露骨内容的技术门槛。”

萨利巴和陈都强调的其他威胁包括政治虚假信息和商业间谍活动,诈骗分子会冒充员工或首席执行官,发布捏造的“泄露”片段,绕过控制措施,并通过攻击窃取凭证。萨利巴说,在这种攻击中,“视频中可信的人会降低人们的怀疑,从而获得进入关键企业内部的权限”。

目前还不清楚视频中出现的制片公司或演员将如何回应,但陈表示,由于这些片段依赖于公开的人工智能模型,因此开发人员在实施安全措施方面发挥着至关重要的作用。

不过,他表示,责任应该由平台、政策制定者和最终用户共同承担,因为仅仅将责任归咎于开发者可能行不通,并会扼杀有益的用途。

陈表示,随着这些工具的普及,研究人员应该优先考虑能够识别合成内容固有统计特征的检测模型,而不是依赖容易被剥离的元数据。

他表示:“平台应该同时投资于自动化检测流程和人工审核能力,同时针对涉及公众人物或潜在欺诈的高风险内容制定明确的升级程序。”他还补充说,政策制定者应该专注于建立明确的责任框架和强制披露要求。

陈说:“这些能力的快速普及意味着,今天制定的应对框架将在几个月内而不是几年内进行大规模测试。”

相关资讯