DeepFake被用到了电信诈骗里,该怎么破?
让他转过头,看看他的侧脸就好了。
DeepFake一直以来都存在着这样一个漏洞:当伪造的人脸完全侧着(转90°)时,真实性就会急剧下降。
为什么会出现这样的结果呢?
外网有这么一篇文章,解析了为什么在侧脸的情况下,面部伪造的效果大打折扣。
使用DeepFake换脸,当人脸是侧角度时,真实性会急剧下降。
这是因为大多数基于2D的面部对齐算法,视捕捉到侧视图的特征点数量仅为主视图的50%-60%。
以“Joint Multi-view Face Alignment in the Wild”中的Multi-view Hourglass面部对齐模型为例。
通过从面部识别特征点,以此为学习数据来训练模型。
从图中可以看出,正面对齐时识别到68个特征点数量,而在侧面对齐时,仅仅识别到39个特征点数量。
侧面轮廓视图隐藏了50%特征点,这不仅会妨碍识别,还会干扰训练的准确性以及后续人脸的合成。
DeepFake专家Siwei Lyu博士表示:
换脸要达到比较逼真的效果,还得经过大量的训练,这意味着需要有足够的训练数据。
外网就有人通过训练大量的数据,将杰瑞·宋飞人脸替换到到《低俗小说》(1994) 中的场景中。
获得的侧脸图像也很难看出破绽:
但是达到如此逼真的效果,是经过了大量数据的训练,在上述这个例子中,电视节目“Seinfeld”就为此次训练提供了长达66个小时的可用镜头。
而相比之下,除了电影演员之外,普通人的影像资料都少之又少,并且在平时拍照记录时,很少有人会记录完全呈90°的侧脸照。
因此,通过DeepFake伪造的人脸很轻易就在侧脸时露出破绽。
也有网友在Hacker News上调侃道:
视频通话时判断对方是不是DeepFake伪造的,除了通过侧脸判断,还有一个小方法:用手在面前晃动。
如果是伪造的人脸,手与脸部图像的叠加可能会出现错乱,并且手在晃动过程中会出现延迟现象。
实时的DeepFake都会面临这样一个问题:需要将真实的遮挡物叠加到不真实的面部图像上,一般称这个操作为“遮罩”或“背景去除”。
并且,实时DeepFake模型需要能够根据要求随意执行抠图,达到可令人信服的水平。
但往往也会有很多混淆的遮挡物来影响“抠图”的过程,比如说具有人脸特征的遮挡物会给模型造成“困扰”,使其“抠图”过程很难进行。
用手在伪造的脸前晃动,遮挡物的快速移动会给“抠图”带来很大的困难,从而造成很大的延迟,并且会影响叠加的质量。
换脸犯罪并不遥远,已经有媒体报道过有嫌疑犯通过DeepFake换脸进行IT工作的远程面试,以试图侵入公司,获取他们的客户或财务数据,以及企业IT数据和专业信息等。
美国联邦调查局(FBI)曾致函其互联网犯罪投诉中心,称收到过多起投诉,有人利用窃取的信息和深度伪造的视频、语音申请远程技术工作。
在联邦机构5月份报告中描述的案例中,一些换脸嫌疑人通过几层空壳公司进行操作,这使得识别他们的身份变得更加困难。
参考链接:
[1]https://metaphysic.ai/to-uncover-a-DeepFake-video-call-ask-the-caller-to-turn-sideways/
[2]https://news.ycombinator.com/item?id=32384653
[3]https://arxiv.org/pdf/1708.06023.pdf
[4]https://gizmodo.com/deepfakes-remote-work-job-applications-fbi-1849118604
“