网易云有料

整合网易全生态优质内容资源的智能信息流一站式服务提供商。

20,603篇博客

鉴黄师可以下岗了?这款人工智能自动为裸照打码

网易云有料2018-08-03 03:41

网址| 51aistar.com

一种全新的人工智能可以使NSFW(不适合工作场所)图像变得更加的安全。最近的一篇论文描述了研究人员如何训练一种被称为生成性对抗网络的人工智能算法,将比基尼打在裸体女性的照片上。

通过查看近2000张女性照片——裸照和比基尼照——这一人工智能可以拍摄一位穿着生日服装的女士照片,找出该把比基尼放在哪里,从而创造出一个新的、更温和的照片。

这项研究工作的幕后团队来自巴西Rio Grande do Sul天主教大学,这是一所由当地天主教大主教管区和耶稣协会联合开办的大学,这也可能解释了这项工作背后的一些灵感。

研究人员描述了他们的动机,强调了网络上丰富的性内容,其中大部分很容易让孩子们接触到。他们指出,超过90%的男孩和近三分之二的女孩报告称在18岁之前看过网络色情内容。

他们写道,自己的软件对于打击色情报复,或者保护只想要PG级(家长指导)互联网体验的人也非常有用。

他们提议,与其只是简单地阻止包含裸露的媒体,互联网平台可以无缝地掩盖这些不良信息。在此之前,经过成千上万张图像训练的算法被设计成用来检测“成人内容”,但研究人员注意到,“目前还没有任何试图自动审查裸体内容的尝试。”

与此同时,他们争辩说,采取比比基尼更简单的方法——例如在生殖器周围打上黑块——意味着 “审查内容仍然会被他人看到。”

“这项任务背后的动机是避免在消耗可能偶尔包含暴露内容的内容时破坏用户体验,”他们写道。他们的研究——《无缝裸体审查:基于对抗性训练的图像到图像翻译方法》,于上个月在里约热内卢举行的IEEE国际神经网络联席会议上首次亮相。

一直以来,人们都倾向于审查那些穿得不够正式的女性照片。Facebook和其他在线平台使用人工智能软件和人类版主定期禁止裸体内容,这有时会被认为是过度和不一致的方式。

世界各地的保守社区通过编辑照片来增加更多的衣服。虽然的确存在,但男性被遮盖的例子却少得多。研究人员从种子网站下载了他们的“数据集”,并表示由于时间限制,他们没有使用男性图像,但是计划在以后的迭代中添加这些图像。

但这一方法也存在一些潜在的陷阱。这项技术可以被反过来使用,通过拍摄比基尼女郎的照片,然后把解剖学上正确的身体部位放进去。“我们想强调的是,去除衣服从来都不是我们的目标,这仅仅是该方法的副作用,无论如何都应该被丢弃,”该论文的作者之一Rodrigo Barros表示。

人们也可能最终使用这样的软件来制造一种新型的深度假照片。有不法分子在人工智能的帮助下,在不知情的受害者、通常是名人的视频中,插入色情内容。这种新型造假方式引起了广泛的关注。

但是从人工智能的局限性来看,电脑绘制的比基尼有时是畸形的,看起来很虚假。那些好色的互联网用户可能最好去找那些真实的裸照,而不是试图反向生成比基尼快照。


文章来源于: AI星球,版权归原作者所有,如有侵权,请联系 guanwang@163yun.com 删除。