新规来了。
在这份刚刚印发的《网络音视频信息服务管理规定》中,四次直接提及深度学习,基本可以看做是针对AI造假视频的一次针对性管控。
2017年底,deepfake换脸技术出现以来,各种使用AI技术造假的视频层出不穷。而且随着技术的进步,造假视频已经变得越来越真假难辨,也引发了全球范围内的担忧。
现在,不能使用AI技术乱来了。
国内的各位朋友,再搞AI换脸的视频等操作,请注意这些新规定。
对普通用户:
- 发布非真实AI音视频时,要以显著方式标识出来。
- 不得使用AI技术制作假新闻。
对于服务商,除了上述要求还有:
- 上线AI音视频服务,应展开安全评估。
- 部署非真实音视频鉴别技术。
- 及时停止传播未显著标识的非真实AI音视频内容。
- 建立健全辟谣机制。
相关规定条款,我们截图如下。
新规定将于明年1月1日起施行。
《网络音视频信息服务管理规定》的详细内容,可以访问这个页面查看:http://www.cac.gov.cn/2019-11/29/c_1576561820967678.htm
deepfake“改变”世界
对于deepfake等基于深度学习的AI技术,全球都在想办法应对。
毕竟这种技术,可以用来换脸:
还能用来给身体造假:
本月,推特发布了首个反deepfake策略草案,并征集公众意见。根据这个草案,如果一份deepfake伪造的内容威胁到某人的人身安全或可能造成严重伤害,将会被删除。
包括微软、Google等国外公司也在研究如何自动鉴别换脸视频。
AI造假视频,也是最近几个月美国国会中最有争议的话题之一。此前,美国国际战略研究中心(CSIS)发布报告称,伪造信息正在通过互联网迅速传播,破坏了民主进程。
来自人民看点的报道中写道:
Deepfake被认为是一种破坏民主的工具。美国情报界发布的2019年全球威胁评估(Worldwide Threat Assessment)中就警告称,恶意攻击者或战略竞争对手可能会使用deepfake技术或类似的机器学习技术来创建看似逼真但其实是伪造的图片、音频和视频文件来加大针对美国和其盟友的活动的影响。
CNBC网站在其报道中称,“deepfake”将成为“2020年美国总统选举中的大事件”。就像2016年的“虚假新闻”一样,“deepfake”视频将在2020年的美国大选中,掀起更强大的血雨腥风。
2019年10月,美国加州州长Gavin Newsom签署AB-730法令,明确指出,如果散布伪造的信息使公众对政治人物的言论、行动产生错误或有害的印象,将是犯罪行为。
7月,美国弗吉尼亚州也发布了禁止deepfake滥用的禁令:未经当事人允许分享他人的裸露视频、照片属于违法行为,无论该照片或视频是真实的还是伪造的。
今年6月,斯坦福、普林斯顿等大学发布了一项最新研究:给定任意文本,就能随意改变一段视频里人物说的话。并且,改动关键词后人物口型还能对得奇准无比,丝毫看不出篡改的痕迹。
除了视频造假,AI在音频造假方面也不在话下。
来看一个真实的案例。
有人用AI技术伪造老板的声音,打电话要求转账,结果一家公司上当了,损失了173万元。这家公司,是总部位于英国的一家能源公司。
要不是因为骗了一次还想立刻骗第二次,这个骗局可能也不会马上曝光。
毫无破绽的变脸
如果你还没见识过deepfake的威力,以下是一些网友的大作。
此前,有一个名为“换脸哥”的B站用户将《射雕英雄传》中朱茵饰演的黄蓉换成了杨幂的脸,并且把处理过的视频发在了B站。
类似的还有,徐锦江换脸海王。
把《回家的诱惑》里男主的脸换到了“穿着品如衣服”的女性角色艾莉脸上:
更多例子就先不举了。
如果你想试试AI模仿声音的感觉,可以试试搜狗输入法里的“变声”功能。
如果你想试试AI换脸的感觉,可以试试此前曾在国内外掀起一阵旋风、继而引发广泛争议的App:ZAO。
One More Thing
北京下雪了,今天一早,量子位有个小姐姐跑去故宫看雪景。
这张是她发回的现场报道:
祝大家周末快乐~
— 完 —
“