当前位置:白旗资讯 > 科技 > 全身DeepFake技术即将来临,问责制建立迫在眉睫

全身DeepFake技术即将来临,问责制建立迫在眉睫

[寻云网(微信号:)9月28日报道(编译:展示妲你的心)

在俄罗斯小说家维克多·佩列文(victor pelevin)的赛博朋克小说《赞平人》中,一位名叫babylen tatarsky的诗人被一所大学的老朋友聘为广告文案,在苏联解体和俄罗斯经济崩溃后在莫斯科工作。鞑靼斯基在聪明的文字游戏方面很有天赋,他很快就在公司中崭露头角。在那里,他发现政治家和当时的俄罗斯总统鲍里斯·叶利钦等重大政治事件实际上是典型。现在,随着越来越复杂的深层假冒产品的出现,佩列文小说中描绘的情景似乎正在慢慢地被意识到。

在深度伪造(或研究者称之为“合成媒体”)领域,人们的注意力主要集中在可能对政治现实造成严重损害的人工智能人脸改变,以及其他可以模仿一个人的写作风格和声音的深度学习算法。然而,合成媒体技术的另一个分支正在迅速发展:全身深度伪装。

2018年8月,加州大学伯克利分校的研究人员发布了一篇题为《人人都能跳舞》的论文和相关视频,展示了深度学习算法如何将专业舞者的动作转移给业余舞者。尽管它看起来很原始,但它表明机器学习研究者正在处理制作全身深度赝品这一更困难的任务。也是在2018年,德国海德堡大学的bjorn ommer博士领导的一个研究小组发表了一篇关于训练机器人真实展现人类行为的论文。今年4月,日本人工智能公司数据网格(data grid)开发了一种能够自动生成不存在的人体模型的人工智能,可以在时装和服装行业中有实际应用。

尽管很明显deepfakes有一些有趣的商业应用,例如deep fakes舞蹈应用,或者在体育和生物医学研究等领域,恶意用例在当今被谣言和虚假新闻所分隔的政治气候中正受到越来越多的关注。目前,深度赝品不能完全愚弄人的眼睛,但是像任何深度学习技术一样,这个领域将在不久的将来取得进展。这只是时间的问题,也就是说,假的东西要多久才能和真人区分开来。

为了制造深水假货,计算机科学家使用生成战争网络(gans)。这些网络通常由两个神经网络组成,一个是合成器或发生器网络,另一个是检测器或鉴别网络。这些神经网络将在改进的反馈回路中工作,以创建真实的合成图像和视频。合成器从数据库中创建图像,而数据库从另一个数据库中工作,以确定合成器的图像是否准确可信。

第一起恶意使用深度假货的案件发生在reddit上,像斯佳丽约翰逊这样的女演员的脸被色情演员的脸所取代。fast.ai的Rachel thomas说,目前存在的95%的深假货是色情使用案例,旨在用虚假的性行为骚扰一些人。托马斯说:“一些深度假货视频不一定使用非常复杂的技术。然而,这种情况正在开始改变。”

法里德指出,中国对枣的深度伪造应用说明了这项技术在不到两年的时间里发展得有多快。

法里德说:“我从赵那里看到的视频看起来非常非常好,有很多人为的改进,使它们看起来像电影版本中的面部动作。技术在不断发展,所以deepfake很难作为一个应用程序进行大规模的工作,让数百万人把它下载到手机上。赵无极的成功标志着迪普山寨的成熟。”

“借助deepfake的图像和视频,我们已经基本实现了cgi技术的民主化。我们把它从好莱坞工作室拿走,交给youtube视频制作人。”

海德堡大学图像处理合作实验室(hci)和科学计算跨学科中心(iwr)的计算机视觉教授比约恩·奥梅尔(Bjrn ommer)领导着一个研究和开发系统合成媒体的团队。像该领域的大多数研究者一样,该团队的总体目标是理解图像,并教会机器如何理解图像和视频。最后,他希望团队能够更好地理解人类是如何理解图像的。

欧默说:“我们已经看到了合成的化身,不仅在游戏行业,而且在许多其他领域创造收入。特别是对我的团队来说,我们正在考虑完全不同的领域,比如生物医学研究。我们想更多地了解人类,甚至动物,我们希望随着时间的推移,它将扩展到一些与残疾相关的行为等等。”

在合成人脸和全身的过程中有着关键的区别。Ommer说,人们对人脸合成进行了更深入的研究。这有几个原因:首先,任何数码相机或智能手机都有内置的人脸检测功能,可以用来检测微笑或识别观看节目的观众。这样的应用可以带来好处,从而带来更多的研究。然而,正如ommer所说,它们也导致“大量的数据集组装、数据管理和人脸图像采集,这些都是建立深入学习研究的基础。”

第二,ommer更感兴趣的是,虽然每个人的脸看起来都不一样,但是把脸和整个身体进行比较时没有太大的可变性。“这就是为什么人脸的研究已经到了一个阶段。我想说的是,与面部合成技术相比,人体有更多的可变性,处理起来也更复杂。如果你朝着这个方向前进,你仍然需要学习更多。”

Ommer不确定完全合成的身体何时能达到他和研究人员想要的质量。然而,从恶意深度假冒的成熟用例来看,ommer指出,即使没有对计算机视觉智能、人工智能或其他技术创造的模仿进行深入研究,人类也很容易受骗。南希·佩洛西的慢镜头让众议院议长看起来喝醉了。在他看来,这段视频显示,带有一个非常简单转折点的深度假货的出现可能会让一些社会阶层相信这一点。

欧默说:“然而,如果你想让更多人相信deepfake的照片或视频,那还需要几年时间。”Ommer相信,深度假冒在未来会变得更便宜、更普遍。“研究团体本身朝着一个方向发展,这得到了很多赞赏。他们负责我们在算法中看到的稳定进展,如github等。因此,您可以从一些文章中下载最新的代码,然后直接应用它,而不知道隐藏的内容。”

不是每个人都能创造出“耸人听闻的深度赝品”。然而,ommer说,随着时间的推移,金钱将不再是算法资源方面的问题,软件的适用性将变得更加容易。法里德表示,利用全身Deep Fauke,恶意制造商可以利用Deep Fauke技术让静止图像直接对着摄像机说话,让目标做他们永远不会做或说的事情。

2016年美国大选期间假新闻的激增和2017年深度假新闻的兴起激励了调查记者范德韦格研究合成媒体。2018年夏天,他开始在斯坦福大学设立奖学金,研究打击恶意使用深度假冒的方法。

范·德·韦格说:“受威胁最大的不是大人物、大政治家和大名人,而是像你我这样的普通人、女记者和一些边缘化群体,他们可能成为或已经成为深度假冒的受害者。”

两周前,荷兰新闻主播迪翁·斯塔克斯发现他的脸被一个色情明星脸上的深度伪装所触动。这段视频被上传到了pornhub网站,并在互联网上传播。尽管pornhub很快删除了这段视频,van de weghe说她的声誉已经受损。

深度造假会如何影响新闻业?范·德·韦格引用了2018年美国有线电视新闻网白宫首席记者吉姆·阿科斯塔的例子。在阴谋论网站infowars的编辑保罗约瑟夫沃森上传的一段视频中,阿科斯塔似乎在推推搡一名试图拿走麦克风的白宫工作人员。c-span播放的原始剪辑明显不同于沃森上传的剪辑。Infowars的编辑声称他没有篡改视频,并将任何差异归因于“视频压缩”。然而,沃森的视频缺少几帧原始视频,正如《独立报》在编辑时间线上对视频的并排分析所显示的那样。深度伪造,就像编辑视频帧一样,可以改变事件的真实性。

Deeptrace labs成立于2018年,是一家网络安全公司,开发基于计算机视觉和深入学习的工具来分析和理解视频,特别是那些可以被人工智能操纵或合成的视频。该公司创始人乔治·帕特里尼(Giorgio patrini)曾在阿姆斯特丹大学三角洲实验室担任博士后研究员。他说,几年前,他开始研究相关技术,以防止或防止未来合成媒体的滥用。

帕特里尼认为,由合成人体、面部和音频组成的恶意深度伪装将很快被用来攻击记者和政治家。他指的是一段深度伪造的色情视频,在视频中,印度记者拉娜·艾尤布的脸变成了一名色情女演员的身体,这是旨在诋毁她的调查报告的虚假宣传活动的一部分。此前,她公开要求对一名8岁克什米尔女孩的强奸和谋杀进行司法审判。今年3月,deeptrace实验室对加蓬总统阿里邦戈的“deepfake”进行了调查。尽管这个非洲国家的许多人认为邦戈一动不动的脸、眼睛和身体暗示着一个根深蒂固的骗局,但包括加蓬军方在内的许多人认为邦戈的脸、眼睛和身体是假的。加蓬军方基于这一信念发动了一场失败的政变。帕特里尼说他不相信总统的视频是合成的。

帕特里尼说:“我们找不到任何理由相信这是一个深刻的假象。我想后来证实总统还活着,但他中风了。我想在这里指出的是,一段视频是假是假并不重要,重要的是人们知道它会引起公众舆论的怀疑,也可能在某些地方引发暴力。”

最近,范·德·韦格得知一个政党的经营者联系了一个最受欢迎的深假创作者,要求他用深假来伤害某人。将来,这种定制的深假可能会成为一项大生意。

范·德·韦格说:“深假可以用来赚钱。人们会看的。所以,政府不需要伪造,他们只需要联系一个专门制造深度伪造的人。”

《华尔街日报》近日报道,一家英国能源公司的首席执行官被骗将243,000美元转入一家匈牙利供应商的账户。这位高管说,他相信自己在和老板说话,老板似乎已经批准了这笔交易。现在,首席执行官认为自己是“网络钓鱼”音频深度欺诈的受害者。Farid认为deepfake的其他欺诈性财务计划(可能包括所有的deepfake)只是时间问题。

法里德说:“我可以制作贝佐斯的假深度视频,操纵他说亚马逊的股价正在下跌。想想你做空亚马逊股票能赚多少钱。当你控制它时,损害已经造成了。现在想象一段民主党候选人说一些非法或不敏感的话的视频。你认为这种行为会影响选举前一天晚上成千上万选民的投票吗?”

法里德认为,社交媒体和深度虚拟视频的结合很容易对脸部和全身造成巨大伤害。社交媒体公司基本上不能或不愿意调整他们的平台和内容,所以深度假冒可以像野火一样蔓延。

他说:“当你把创造深度虚假内容的能力与在全球发布和消费内容的能力结合起来时,就会出现问题。我们生活在一个高度分裂的社会,原因很多。人们会认为有不同意见的人不好。”

然而,fast.ai的托马斯说,在新的网络冲突中,深度假冒几乎不需要对政治进程产生负面影响,因为政府和行业已经在打击书面形式的虚假信息。她说,这些风险不仅与技术有关,还与人为因素有关。社会两极分化,美国大部分地区不再有他们可以信任的真相来源。

这种不信任可能会给出于政治动机的深层虚假创作者一个机会。正如隐私学者丹尼尔·香橼指出的,当深度假冒被曝光时,它可以向那些相信谎言的人暗示谎言是合理的。香橼称之为“骗子的红利”farid认为深度伪造技术的进步会使这种邪恶的问题变得更糟。在大学研究(如人人跳舞)和企业(如赵阳)的推动下,这项技术发展迅速,货币化只是时间问题。

法里德说:“一旦你能做全身运动,你就不能再只是在脑子里说话了。你可以模拟人们做爱或杀人。未来就在眼前吗?不一定。但最终,也许一两年后,人们将能够假装他们的全身运动。这不是不合理的,这项技术将非常强大。”

目前,科技产业还没有达成根除深伪的共识。许多不同的技术正在被研究和测试。

例如,van de weghe的研究团队创造了各种内部挑战,并探索了不同的方法。一个研究小组研究了电影的数字水印来识别深度伪造。另一个团队使用区块链技术来建立信任,这是它的优势之一。然而,另一个团队通过使用与深度赝品原创相同的深度学习技术来识别深度赝品。

范·德·韦格说:“斯坦福的一些辍学者创造了夏洛克人工智能,一种自动深度伪造测试工具。他们采样了一些卷积模型,然后在视频中寻找异常。这个过程也被其他深度假探测器使用,例如深度跟踪实验室。他们使用了一个名为faceforensics++的数据集并对其进行了测试。准确率高达97%,人脸识别效果也非常好。”

基于api的深度跟踪实验室监控系统可以查看深度伪视频的创建、上传和共享。自2018年成立以来,该公司已经在互联网上发现了14000多个虚假视频。deeptrace系统收集的信息可以告诉公司及其客户deepfake的创建者在做什么,虚假视频和突破来自哪里,他们在使用什么算法,以及这些工具的可访问性如何。帕特里尼说,他的团队发现95%的深度假冒是假冒色情面部交换产品,其中大多数是名人。迄今为止,deeptrace实验室还没有看到任何系统的合成技术应用于普通人。

帕特里尼说:“你不能用单一的算法或想法来总结这些问题的解决方案。这个问题是关于设置几个工具来告诉你关于合成媒体的不同事情。”

Van de weghe认为,防伪技术的下一个主要发明将是软生物识别技术。每个人都有自己独特的面部表情——眉毛、嘴唇的动作、手的动作——这可以被视为一些个人特征。加州大学伯克利分校的研究员舒拉蒂·阿加瓦尔(Shruti agarwal)使用一个软生物统计模型来确定这种面部抽搐是否可以人工用于视频。

阿加瓦尔说:“基本想法是我们可以建立不同世界领导人的软生物特征模型,比如2020年总统候选人,然后我们可以分析网络上流传的视频,以确定它们是否真实。”

虽然agarwal的模型不能被完全证明,因为不同环境中的人可能会使用不同的面部抽搐,但van de weghe仍然相信未来的公司可以提供软生物特征签名进行认证。该特征可以是众所周知的眼睛扫描或全身扫描。

范·德·韦格说:“我认为这是前进的道路:与学术界和大型技术公司合作创建更大的数据集。作为新闻编辑,我们应该尽最大努力培养人们对深度造假的媒介素养。”

最近,脸书和微软联合大学发起了“深度假冒测试挑战”。另一个值得注意的努力是美国国防高级研究项目署使用语义取证技术处理深度伪造的行动。语义取证可以发现算法错误。例如,在深度伪视频中,一个人戴的耳环不匹配。2018年9月,人工智能基金会筹集了1000万美元,用于创建一种工具,通过机器学习和人工审核来识别深度假冒和其他恶意内容。

然而,fast.ai的托马斯仍然怀疑技术是否能完全解决深度伪造的问题,不管是什么形式的技术。她认为建立一个更好的系统来识别深度伪造是有价值的,但是她重申其他类型的错误信息已经很猖獗了。托马斯说,利益相关者应该探索社会和心理因素,这些因素也会导致严重的深度伪造和其他错误信息,比如南希·佩洛西的慢镜头如何利用不喜欢她的选民的偏见。

托马斯、范·德·韦格和法里德都同意,政府必须介入并监管深度假冒技术,因为放大这种煽动性内容的社交媒体平台要么无法,要么不愿意监管自己的内容。

今年6月,众议院情报委员会主席、民主党众议员亚当·希夫(adam schiff)举行了首次听证会,讨论深度伪造带来的虚假信息和威胁。希夫在开场白中指出,科技公司对希夫的假视频有不同的反应。Youtube立即删除了播放缓慢的视频,而facebook将其标记为假,并限制了其在平台上的传输速度。这些不同的反应导致希夫要求社交媒体公司制定政策来纠正深度假冒的上传和传播。

fast.ai的托马斯说:“从短期来看,推广虚假信息和其他有害的煽动性内容对社交平台是有利可图的,因此我们的激励措施完全不一致。我不认为这些平台应该为它们所承载的东西负责,但是我认为它们应该为它们积极推广的东西负责。例如,youtube向那些甚至没有搜索亚历克斯·琼斯的人推荐他的视频。

托马斯补充道:“总的来说,我认为考虑一下我们如何通过立法处理其他行业(如工业污染、大烟草和快餐/垃圾食品)是有帮助的,立法将巨大的社会成本外部化,同时私下要求利润。”

deeptrace实验室的Patrini说,合成媒体的监管可能会变得复杂。然而,他认为一些现行的法律,比如那些与诽谤和版权相关的法律,可以用来规范恶意的深度伪造。全面防止深度伪造的法律是错误的。相反,他主张政府支持有益于社会的合成媒体的应用,也支持检测深度假冒的工具的研发,并鼓励初创企业和其他公司也这样做。

帕特里尼说:“政府也可以教育公民。这项技术已经存在。我们需要重新训练我们的耳朵和眼睛,不要相信我们在网上看到和听到的一切。我们需要给人们和社会接种疫苗,而不是在两年内由于滥用这项技术而发生灾难性或有争议性的事情时修复人们的情绪。”

Ommer说计算机视觉研究人员很清楚deepfake的恶意应用。他认为政府应该建立一个关于如何使用深度伪造的问责制。

欧默说:“我们都看到了图像理解的应用及其可能带来的好处。责任是最重要的部分之一。谁将承担这一责任?采访我的政府机构清楚地看到了他们在这方面的责任。该公司表示,或许为了股东的利益,他们不得不说,他们看到了自己的责任。但到目前为止,我们都知道他们是如何承担这一责任的。”

欧默说:“这是一件困难的事情。我们不能只是静静地祈祷这一切都会过去。”

湖北快三投注 广东十一选五 广西11选5投注

上一篇:2018年度县域经济工作成绩突出 湖北20个县市区受省委省政
下一篇:皮克警告巴萨董事会:不要无事生非,巴萨需要团结
热门推荐
猜你喜欢
改版拼购 京东(JD)的“上下求索”