资源行业动态新报告称人工智能无法保护人们免受Deepfakes技术的影响

新报告称人工智能无法保护人们免受Deepfakes技术的影响

2019-09-19 | |  99 |   0

原标题:新报告称人工智能无法保护人们免受Deepfakes技术的影响    原文来自:cnBeta.COM

原文链接:https://www.cnbeta.com/articles/tech/890891.htm


来自Data & Society的一份新报告引发了人们对视频欺骗性改变的自动化解决方案的疑虑,包括机器学习改变的视频deepfakes等。作者Britt Paris和Joan Donovan 认为,虽然deepfakes是新的,但却是媒体操纵历史悠久的一部分 - 需要社会和技术修复。依靠人工智能实际上可以通过将更多数据和权力集中在私营公司手中来使事情变得更糟。


Paris表示,“围绕deepfakes的恐慌证明了快速的技术解决方案无法解决结构性不平等问题。这是一个庞大的项目,但我们需要找到同时涵盖社会及政治方面的解决方案,所以没有权力的人不会被排除在外。”

4e0aafb3c5c0d5cf13.jpg

 

正如Paris和Donovan所看到的那样,只有技术本身将不能解决deepfakes问题。报告中写道:“媒体与真相之间的关系从未如此稳定。” 在19世纪50年代,当法官开始在法庭上允许摄影证据时,人们不相信新技术,并且首选见证证词和书面记录。到了20世纪90年代,媒体公司通过选择性地编辑晚间节目中的图像来参与歪曲事件。“这些图像是真实的图像,”报告说。“操纵的是他们如何在有线电视上全天候进行情境化、解释和广播。”


今天,通过允许人们使用机器学习操纵视频和图像,deepfakes甚至进一步操纵,其结果几乎不可能用人眼检测到。现在,该报告称,“这任何拥有公共社交媒体资料的人都是公平的游戏。”一旦虚假视频存在,它们就可以在几秒钟内在社交媒体上大规模传播。


为了解决这个问题,Facebook最近宣布它正在发布一个数据集,允许人们测试旨在检测利用deepfakes视频的新模型。像TruePic这样使用AI和区块链技术来检测被操纵照片的初创公司也开始获得动力。最近,美国国防部高级研究计划局(DARPA)投资了Medifor,后者研究视频像素的差异,以确定什么时候被篡改。但是,几乎所有这些解决方案的目标都是在捕获点(即拍摄照片或视频时)或在检测级别(以便更容易区分篡改和未篡改的内容)之间进行操纵。


法律专家认为这种方法是积极的,并指出,只有通过法院才能解决deepfakes问题。电子前沿基金会公民自由主任 David Greene说道,伪造的视频在政治评论和匿名化需要身份保护的人群中也有重要用途。


“如果要制定一项deepfakes法律,则需要考虑言论自由,”他补充道,如果人们使用deepfakes进行违法行为 - 例如勒索某人 - 他们可能会根据现行法律受到起诉。


但Paris担心人工智能驱动的内容过滤器和其他技术修复可能会造成真正的伤害。她说道:“他们为某些人做得更好,但可能会让其他人变得更糟。设计新的技术模型为公司创造了可以捕获各种图像并创建在线生活库的空间。”


《Deep Fakes: 对隐私,民主和国家安全的迫在眉睫的挑战》论文的合著者Bobby Chesney却并未将数据收集视为一个问题。“我认为,如果不加管制,私人实体将获得更多信息,”他说道。“但这种本来就很糟糕的想法让我觉得没有说服力。”


Chesney和Paris 同意需要某种技术修复,并且它必须与法律系统一起起诉不良行为者并阻止伪造视频的传播。“我们需要谈论缓解和限制伤害,而不是解决这个问题,”Chesney补充道。“Deepfakes将不会消失。”

THE END

免责声明:本文来自互联网新闻客户端自媒体,不代表本网的观点和立场。

合作及投稿邮箱:E-mail:editor@tusaishared.com

上一篇:数据标注师 人工智能背后的人工力量

下一篇:我国最新十大黑科技发布,颠覆你的想象

用户评价
全部评价

热门资源

  • 国内人才报告:机...

    近日,BOSS 直聘职业科学实验室 &BOSS 直聘研究院...

  • AI使物联网更智能...

    看到微软对物联网和人工智能的结合感兴趣是一个明...

  • 推荐一批学习自然...

    这里推荐一批学习自然语言处理相关的书籍,当然,...

  • 安防智能化大势下...

    大部分传统安防设备不仅拍摄视野有限,而且无法事...

  • 20亿创业基金、10...

    近日,杭州举办了建设国家新一代人工智能创新发展...