目录:
视频: ä¸è¦å²ç¬æåçæ§ (十一月 2024)
当我们进入下一个总统选举活动季节时,您将要提防假冒在线视频通过使用人工智能(AI)和机器学习(ML)带来的潜在危险。 人们可以使用AI软件创建Deepfake(“深度学习与伪造”的缩写)视频,其中使用ML算法进行人脸交换,从而产生一种幻觉,即有人说了自己没说过的话或是他们说过的话。不。 从娱乐到政治到企业界,Deepfake视频都出现在各个领域。 假冒的视频不仅会虚假地影响选举,还会给人带来尴尬或引起误解的品牌信息,例如,如果视频表明某位首席执行官宣布了一项产品发布或一项收购实际上并未发生。
Deepfakes是AI类别的一部分,称为“生成对抗网络”(GAN),其中两个神经网络竞争创建真实的照片或视频。 GAN包括一个生成器,该生成器创建一组新数据(如伪视频),以及一个鉴别器,该鉴别器使用ML算法合成和比较真实视频中的数据。 生成器一直在尝试将伪视频与旧视频合成,直到判别器无法分辨出数据是新的为止。
正如McAfee高级副总裁兼首席技术官(CTO)的史蒂夫·格罗布曼(Steve Grobman)在3月于旧金山举行的RSA Conference 2019上指出的那样,自从摄影术发明以来,假照片就已经存在。 他说,更改照片是您可以在诸如Adobe Photoshop之类的应用程序中执行的简单任务。 但是现在,这些类型的高级编辑功能也正在转移到视频中,并且它们正在使用功能强大且易于访问的软件工具来实现。
假货是如何创建的
尽管了解AI概念是有帮助的,但不必成为数据科学家来制作Deepfake视频。 根据Grobman的说法,它仅涉及在线遵循一些说明。 在2019年RSA大会上(请参见上面的视频),他与McAfee的首席数据科学家兼高级首席工程师Celeste Fralick博士一起发布了Deepfake视频。 Deepfake视频演示了该技术带来的威胁。 格罗布曼(Grobman)和弗雷利克(Fralick)在视频中展示了一位公职人员如何说危险的东西可能误导公众以为该消息是真实的。
为了制作他们的视频,Grobman和Fralick下载了deepfake软件。 然后,他们在2017年美国参议院前拍摄了格罗布曼的视频作证,并将弗拉利克的嘴巴放在格罗布曼的嘴上。
“我使用免费的公共评论来创建和训练ML模型;这使我能够用口中之言制作出深深的视频,” Fralick从舞台上告诉RSA观众。 Fralick继续说Deepfake视频可以用于社会剥削和信息战。
为了制作他们的Deepfake视频,Grobman和Fralick使用了Reddit用户开发的名为FakeApp的工具,该工具使用ML算法和照片在视频上交换人脸。 在RSA演示中,Grobman解释了后续步骤。 “我们将视频分割成静止图像,提取面部,然后通过排序将其清理并在Instagram中清理。”
Python脚本允许McAfee团队建立嘴巴动作,以使Fralick的语音与Grobman的嘴巴匹配。 然后,他们需要编写一些自定义脚本。 Grobman说,创建令人信服的Deepfake的挑战在于性别,年龄和肤色等特征不匹配。
然后,他和Fralick使用了最终的AI算法,将参议员面前作证的Grobman图像与Fralick的讲话相匹配。 Grobman补充说,训练这些ML算法花了12个小时。
迈克菲概述了创建在2019年RSA大会上展示的Deepfake视频所采取的步骤。 它使用称为FakeApp的Deepfake软件和ML模型的训练,通过Fralick的语音来更改Grobman的视频。 (图片来源:McAfee)。
假冒伪劣的后果
由黑客创建的Deepfake视频有可能引起许多问题-从政府官员散布虚假的错误信息到名流,无所不包的视频使名人为尴尬而感到尴尬,而实际上他们并没有让公司破坏竞争对手的股票市场地位。 意识到这些问题,立法者在9月致信美国国家情报局局长丹尼尔·科茨(Daniel Coats),要求对深造物构成的威胁进行审查。 该信警告说,俄罗斯等国家可能在社交媒体上使用伪造的东西传播虚假信息。 去年12月,立法者出台了《 2018年恶意深造假禁令》,以禁止涉及“深造假货”的“视听记录”欺诈。 法案是否会通过还有待观察。
如前所述,名人可能会因其面孔被叠加在色情明星的面孔上而感到尴尬,例如Gal Gadot就是这样。 或想象一个CEO宣布产品新闻并沉没一家公司的股票。 安全专业人员可以使用ML来检测这些类型的攻击,但是如果未及时检测到它们,可能会对国家或品牌造成不必要的损害。
Forrester Research首席分析师Chase Cunningham博士说:“有了Deepfake,如果您知道自己在做什么,并且知道要针对谁,就可以真正制作出令人信服的视频,对品牌造成很多损害。” 。 他补充说,如果您在LinkedIn或Twitter上发布这些消息或使用漫游器形式,“您就可以根据虚假视频总数来粉碎公司的股票,而无需花费很多时间。”
通过Deepfake视频,可以诱骗消费者相信某种产品可以做一些它不能做的事情。 坎宁安(Cunningham)指出,如果一家大型汽车制造商的首席执行官在一个虚假视频中表示该公司将不再生产汽油动力汽车,然后在该视频中在Twitter或LinkedIn上传播该信息,则该举动很容易损害品牌。
“有趣的是,根据我的研究,人们可以在37秒内根据标题和视频做出决策,”坎宁安说。“因此,您可以想象,如果您获得的视频播放时间超过37秒,则可以让人们根据不管事实与否。 这太可怕了。”
由于社交媒体是Deepfake视频容易传播的脆弱场所,因此社交媒体网站正在积极努力,以应对Deepfake的威胁。 例如,Facebook部署了工程团队,可以发现被操纵的照片,音频和视频。 除了使用软件之外,Facebook(和其他社交媒体公司)还聘请人们手动查找伪造品。
一位Facebook代表在一份声明中说:“我们已经加大了与受控媒体作斗争的努力,包括应对深造假。” “我们知道,各种形式的受控媒体的不断出现给社会带来了真正的挑战。这就是为什么我们投资于新技术解决方案,向学术研究学习以及与行业内其他人合作以了解深造和其他形式的受控媒体的原因”。
并非所有的Deepfake都是坏的
正如我们在McAfee的教育性Deepfake视频和深夜电视上的喜剧性Deepfake视频中所看到的那样,某些Deepfake视频不一定很糟糕。 实际上,尽管政治可以揭露Deepfake视频的真正危险,但娱乐行业通常只显示Deepfake视频的一面。
例如,在最近的 《与斯蒂芬·科尔伯特(Stephen Colbert)的晚间表演》 一集中, 播放 了一段有趣的Deepfake视频,其中演员史蒂夫·布塞米(Steve Buscemi)的脸叠加在女演员詹妮弗·劳伦斯(Jennifer Lawrence)的身上。 在另一起案件中,喜剧演员约旦·皮勒(Jordan Peeler)用自己的声音代替了前总统巴拉克·奥巴马(Barack Obama)讲话的视频。 像这样的恐怖深渊视频也出现在网上,当特朗普讲话时,特朗普总统的脸被叠加在德国总理默克尔的脸上。
同样,如果将Deepfake视频用于讽刺或幽默目的,或只是用作娱乐,那么社交媒体平台甚至电影制作公司都可以允许或使用它们。 例如,Facebook在其平台上允许这种类型的内容,而卢卡斯电影公司使用一种数字娱乐手段,在《侠盗一号:星球大战外传》中,年轻的凯莉·费舍尔(Carrie Fisher)出现在女演员英格维德·德拉(Ingvild Deila)的身上。
迈克菲(McAfee)的格罗布曼(Grobbman)指出,深度伪造背后的某些技术可以很好地与电影制作中的特技动作配合使用,以确保演员的安全。 Grobman说:“上下文就是一切。如果它是出于喜剧目的,并且很明显它不是真实的,那就是对技术的合法使用。” “认识到它可以用于各种不同的目的是关键。”
如何检测Deepfake视频
迈克菲并不是唯一尝试检测假视频的安全公司。 两名赛门铁克安全专家,安全响应负责人Vijay Thaware和软件开发工程师Niranjan Agnihotri在Black Hat 2018上发表的题为“ AI Gone Rogue:在威胁造成威胁之前消除深造”的文件中写道,他们已经创建了一个发现漏洞的工具。基于Google FaceNet的虚假视频。 Google FaceNet是神经网络架构,由Google研究人员开发以帮助进行面部验证和识别。 用户可以在特定图像上训练FaceNet模型,然后可以在随后的测试中验证其身份。
为了阻止Deepfake视频的传播,专注于人与AI交互的非营利组织AI Foundation提供了名为“ Reality Defender”的软件来发现虚假内容。 它可以扫描图像和视频以查看是否已使用AI对其进行了更改。 如果有,他们将获得“诚实的AI水印”。
- 机器学习业务指南机器学习业务指南
- PornHub,Twitter禁止“ Deepfake” AI修改色情PornHub,Twitter禁止“ Deepfake” AI修改色情
- 最新的Deepfake技术会让您像布鲁诺·马尔斯一样跳舞最新的Deepfake技术会让您像布鲁诺·马尔斯一样跳舞
另一种策略是牢记“零信任”的概念,这意味着“永不信任,始终验证”。这是网络安全的座右铭,这意味着IT专业人员应在授予访问权限之前确认所有用户都是合法的。 仍然需要对视频内容的有效性持怀疑态度。 您还将需要具有数字分析功能的软件来发现虚假内容。
寻找假货
展望未来,我们需要对视频内容更加谨慎,并牢记如果滥用它们会给社会带来的危险。 正如格罗布曼(Grobman)指出的那样:“在短期内,人们需要更加怀疑自己所看到的并认识到可以制作视频和音频。”
因此,当我们进入下一个选举季节时,请保持对您观看的政治视频的怀疑态度,不要相信所有包含公司领导人的视频。 因为您所听到的可能不是真正说的话,并且误导性的Deepfake视频有可能真正损害我们的社会。