拼接人物、虚假色情……人工智能向“眼见为实”开战

2018年3月21日 | By News | Filed in: News.

http://ift.tt/2DC4pB9

编者按:利用人工智能技术制作虚假的色情视频引发了巨大的争议。一位业内专家表示:“色情可能是其中最不具攻击性的一部分,一个像素接一个像素,人工智能引发了一场关于真实的战争。”文章发表在FastCodesign上,由36氪编译。

面部交换(face-swapping)革命在九年前就开始了。当时,我在埃德·乌尔布里奇(Ed Ulbrich)的放映室里,他热衷于研究那种在《本杰明·巴顿奇事》(The Curious Case of Benjamin Button)电影中改变布拉德·皮特(Brad Pitt)面部的技术。乌尔布里奇欢迎我来到他的视觉特效工作室——数字领域(Digital Domain)去预览一些甚至可能超过本杰明·巴顿技术魔力的东西。他把灯光变暗,他最新作品《创战纪》(Tron Legacy)的开场白开始播放。不久之后,我面前就出现了一个经过数字化重建的杰夫·布里吉斯(Jeff Bridges),不过他不是60多岁,而是30多岁。对于乌尔布里奇来说,面部交换是特效领域的圣杯——我们见证了它的实现。

“这真的很难、很慢、很乏味、成本也非常高,”乌尔布里奇当时说。“下一次我们这样做时,就不会那么困难,也不会那么慢,成本也不会那么高了。”后来,数字领域打造了说唱歌手图派克(Tupac)的全息形像。之后在2012年宣布破产。但这家公司留下了自己的痕迹:数字面部交换已经成为好莱坞的主流工具,比如《终结者:创世纪》中的施瓦·辛格以及《星球大战7:原力觉醒》中的凯丽·费雪都使用了这个技术。

然而,想要做出令人惊叹的效果仍然相当困难和昂贵——直到一个名为Deepfakes的匿名Redditor在一夜之间改变了所有这一切。在2018年初,Deepfakes向公众发布了一段独特的代码,允许任何人可以轻松和令人信服地将一张面孔映射到其他人的脸上。然后,另一个Redditor快速创建了FakeApp,为Deepfakes脚本提供了一个用户友好的前端。

这位匿名的Redditor首次公开技术的时候,发布了一系列将著名女演员的脸换到色情片的女演员上的视频。其他的Redditors迅速效仿了这一做法。虽然用户仍然需要收集数百甚至数千张人物的面部照片才能使用Deepfakes AI,但是所有训练这台机器的艰苦而合乎逻辑的工作都是自动化的。突然之间,整个互联网都可以使用这一种技术了,使他们能够将任何人——熟人、未成年人、敌人——的面部嵌入到色情视频中。很容易想象接下来会发生什么。

法律在这个事件面前,几乎没有帮助。因此,为了减少传播的趋势,Reddit和Pornhub迅速禁止Deepfakes的内容,将其定性为一种类似于复仇色情的内容。目前,Deepfakes已经被封禁。但对像乌尔布里奇这样看着这种技术诞生的人而言,革命是不可阻挡的。

“色情可能是其中最不具攻击性的一部分,”乌尔布里奇现在告诉我。“一个像素接一个像素,它引发了一场关于真实的战争。”

制作DEEPFAKES

“这可能被认为是一种恋物癖,”名称为Deepfakes的用户通过Reddit给我写道。“有些人喜欢脚,有些人喜欢大胸,有些人喜欢色情片中出现熟悉而有吸引力的面孔。这也可以解释为什么我痴迷于生成真实的面部图像。“

Deepfakes不会告诉我他们的姓名,年龄或职业,但是他很乐意谈论他的信仰,以及是什么让他们向大众公开他们的代码。在过去的12年里,Deepfakes一直沉迷于面部测绘技术,这项技术最早起自于2006年发布的电子游戏上古卷轴4:遗忘》,这款游戏允许玩家使用各种滑块和选项定制他们的虚拟角色的面部,也就是现在玩家所称的“捏脸”。

这让Deepfakes掉进了一个“兔子洞”。一直到1999年,一篇经典的论文《一个用于合成3D面部的变形模型》给《上古卷轴4:遗忘》带来了启发。这篇论文提供了一项技术,能够使用一个单一的2D图像来创建一个3D的面部。“虽然大多数时候这个模型非常糟糕,看起来就像是你把某人的脸贴在马铃薯上一样,”Deepfakes说。2009年,一篇题为《在Wild中的面部重建》的论文提供了更好地见解——如果有足够多的各种角度的2D图像,你可以创造一个完整的、连续的3D面部模型。“我断断续续地试验了一段时间这个方法, 但没有任何用处,”Deepfakes说。

最后,2016年,自动化机器学习系统的飞速增长——能够自我改进——Deepfakes将之前所有的技术成为“类固醇”。

“我进行了一些尝试,发现我可以用足够的训练数据轻松地生成同一个人的非常真实的面孔。接下来的问题是,‘我应该如何处理这些生成的面孔?’”Deepfakes说道。“我仍然无法可靠地从随机图像中重建出来高质量的3D人脸模型——我已经接近了,但尚未完成。但是,我可以尝试交换两个面孔……“经过大约一年半的努力,Deepfakes创建了他们的面部交换神经网络,通过色情片来证明这个概念,并将代码开源向全世界发布。

关于为什么要去开源,Deepfakes有自己的考虑。“其一,这个算法非常非常容易理解,我找不出有什么理由去隐藏它。其他人迟早会找到类似的解决方案,“他说。“其二,最好让公众知道这些算法的存在,让人们知道现在这些算法是如何工作的。对我们来说,隐藏这些信息是不道德的。”

Deepfakes的技术基于相对典型的生成对抗网络(Generative Adversarial Network,以下简称GAN)技术,基本上每个人工智能研究人员都使用这种技术。不要把GAN看作是一个人工智能,而是两个,每个人都渴望成为老师的宠儿。一个称为生成器的人工智能来绘制面部,而另一个称为鉴别器的人工智能,则通过尝试识别虚假内容来批评它们。重复这个过程数百万次,在一场只要你的电脑插上电源就可以进行的战斗中,两个人工智能都会不断地改善这一过程。在一台低端的电脑上计算半天时间后,Deepfakes的结果是相当令人信服的。

类似的神经网络已经产生了许多极好的,能改善人类的影响。可以在皮肤癌早期的时候就发现病情,做出诊断,或者帮助发现新的药物,来治疗今天棘手的疾病。此外,亚马逊的Alexa和Google Home的语音识别突然变得如此强大也可归功于GAN。

但从根本上说,当一台机器训练另一台机器来创建与真实物体无法区分的内容时,就会出现问题。它创造的内容通过设计可以通过最高的专业审查的测试。

实际上,Deepfakes使用的成像工具已经被世界上一些大型的软件公司所研究出来的。就比如Adobe,十多年前就已经使用人工智能来处理图像了。

当你教机器识别虚假内容时,你就能用它做出更逼真的虚假内容

“你用来区分现实与虚构的技术能力越强,虚构出来的东西就越逼真,”Adobe研究所媒体智能实验室主任乔恩·布兰德(Jon Brandt)解释说,他是Adobe公司在15年前聘用的第一名人工智能研究人员。

在Adobe,布兰德的工作不是创造未来的产品,而是引导并协调它们注入新的工具中。十多年来,Adobe已经对人工智能进行了许多改进。2004年,它推出了第一个基于人工智能的功能——自动红眼消除。现在,Adobe的人工智能已经运用到了从裁剪到图像搜索,再到口型同步等几十个功能中。

大多数情况下,这些都是在Adobe的创意工具的日常更新,然后逐渐在应用程序中形成了特定的功能。对于我关心的问题——作为图像处理领域最大、利润最丰厚的公司,Adobe一手打造了能够扭曲现实的Photoshop软件——布兰德并没有闪烁其词,拐弯抹角。

“Sensei是房间里的大象,”他说。“它不是一个产品,而是一套技术,承载着将人工智能和机器学习运用到业务中的使命。”由于机器学习以及Adobe每年夏天招募的一小批研究实习生,Adobe可以模仿你的声音,让你说出你从未说过的话。它可以自动缝合虚构的背景。它可以使一张照片拥有与另一张照片相同的风格。它可以让你轻松地从视频中移除巨大的对象,就像在桌面上拖放文件一样容易。

很显然,这些研究实验尚未运用到Adobe的产品中,但研究它们并不是为了让怀有恶意的人用来虚构内容,而是为了让工具变得更加容易使用。使得人们不需要有多年的专业知识,或者是不停地磨练自己的技术。在人工智能的帮助下,学徒可以成为大师。在Adobe的计划中,在不久的将来,图像处理就像你打电话一样简单。

“我们的使命之一就是让我们的工具变得简单, 让创意人员能够尽快地表达出自己的想法,”布兰德说。“这就需要我们对他们的工作背景和内容有更多的了解,这需要一种机器学习方法。”

当我问布兰德是否看到过Deepfakes时,他说他已经看到了,他并不感到惊讶。毕竟,基于Deepfakes的视频不是由神经网络技术产生的第一个或唯一可怕的虚假内容形式。这让我想到了那段关于巴拉克·奥巴马(Barack Obama)演讲的令人毛骨悚然的视频

正如布兰德所指出的那样,由于研究团体乐于公开和大规模地分享他们的技术,这种能力的迅速普及是不可避免的。

“我们可以尽最大努力来推动负责任地使用这些工具,并且在这些工具被用于非法或恶意目的时支持执法,” 他表示。“但是有些人会滥用它,这很不幸。我们可以从工具的角度来做一些事情来限制这种情况,但归根结底,你不能完全杜绝人们做一些不好的事情。”

无论是匿名的Redditors,还是像Adobe这样的大公司,或者说是学术界,在通过各种先进技术处理音频和视频内容方面,都取得了很大的进展,但是没有哪一方说要踩刹车。那么,我们应该如何看待慢慢消失的现实呢?现在,我们还不知道该怎么办。

关于真实的战争

那么,Deepfakes有没有觉得将名人被放在色情视频中是一件很糟糕的事情?Deepfakes是否担心有人可以使用他们的机器学习技术来制作关于未成年人或高中同学的色情作品?当我向Deepfakes询问他们自己的道德准则时,他们认为自己并没有伤害任何人。

“我认为,私下制造虚假内容是可以的,对未成年人也是如此。创造这些虚假内容并不会伤害任何人,“Deepfakes说。“当然,分享这些虚假的内容又是另一回事了。我并不认为向普通人分享虚假的色情内容是可以接受的。对于名人来说,这些虚假内容对他们的形象有多大影响是值得商榷的。如果我们创造出一个现实中不存在的人呢?例如一个即像娜塔莉·波特曼(Natalie Portman)又像凯拉·奈特莉(Keira Knightley)的人,但并不是她们中的一个。这里的可能性是无穷无尽的,我没有答案。“

但Deepfakes承认,他们在创作视频时并没有考虑到这些道德问题,因为对于Deepfakes而言,这些视频本来就是假的。“我更担心人们可能会被其他人的算法所迷惑,”Deepfakes说。“也许一些虚假的视频已经出现了,而我们并不知道。”

也许这听起来像是甩锅——就像爱因斯坦谴责曼哈顿计划一样:早晚会有人制造出来原子弹,我更担心有人会建造一个更大、更具破坏性的东西!同样,一个更好版本的Deepfakes技术对一些人来说可能会更危险。

“在《本杰明·巴顿奇事》上映后,就有政府的人来找我了,问‘这是否可以用来作恶,’”乌尔布里奇回忆说。“我们收到的一个要求是让罗纳德·里根(Ronald Reagan)出现在共和党全国委员会(RNC),我们接受了。”乌尔布里奇给自己定下了非常清晰且强大的道德准线,他可以强制执行,因为他是少数几个在中途掌握这项技术的关键人物之一。

“’你可以让奥巴马说点其他的东西吗?’”他假设一个假设客户会提出这样的请求,“是的,我们可以做到,但我们不会做。”

对于乌尔布里奇来说,Deepfakes技术看起来并不像多年前的本杰明·巴顿那么好。 但这并不重要,其仍然足以在社交媒体上像病毒一样传播开来。同样重要的是,任何人都可以使用Deepfakes的代码,不需要高级的技能或数百万美元的好莱坞预算。正如乌尔布里奇九年前所说的那样,它只会变得更好,更便宜,更快。

“对我来说,这是件大事儿。我认为这会改变一切,“乌尔布里奇说。“你真的不能相信你的眼睛,你不能相信你的耳朵……它颠覆了媒体。“

监管机构可以关闭这一切,并认为Deepfakes视频是非法的。但这很棘手。在当代法律条款中,这可以被认定为是一种言论自由。要知道,现在还有一些真正的艺术作品中运用到了Deepfakes技术。

进一步说,当伪造技术本身如此广泛地传播开来,并越来越难以反驳时,合法性就基本上不再是一个有实际意义的问题了。如果世界上每个人手里都有一个关于“假新闻的核弹按钮”,那么法律不能阻止爆炸。它只能试图惩罚那些应该负责任的人。

在这方面,乌尔布里奇和Deepfakes实际上是完全一致的。“我们正处于任何人都可以制作可信视频的时代,任何人都可以声称视频是伪造的,”Deepfakes说。“我认为这是不可避免的,社会必须适应这种变化。但这个过程可能是痛苦的。”

原文链接:https://www.fastcodesign.com/90162494/the-war-on-whats-real

相关阅读

展望2018:人工智能能够“以假乱真”,“恐怖谷理论”已经终结

Adobe 的视频 PS 技术很容易掌握,造谣的人更方便了

AI 的“矛与盾”:有人用它来制造虚假色情内容,也有人用它来反击

IT.数码

via 36氪 http://36kr.com

March 19, 2018 at 04:03PM


发表评论

电子邮件地址不会被公开。 必填项已用*标注