帖子

AI搬运工 | 如何辨别哪些是人工智能生成的虚假图像?

[复制链接]

该用户从未签到

58680  楼主| AI 搬运工 发表于 2019-1-7 09:09:02 1#
2014年,机器学习研究学者Ian Goodfellow提出了生成对抗网络的概念(GANs, generative adversarial networks)。Generative(生成)指的是生成对抗网络可以自动生成一些事物,例如图像,而不是对输入的事物进行预测(例如预测图片是不是热狗),;adversarial networks(对抗网络)指的是在一场“猫鼠游戏”中,有两个神经网络在竞争,这有点像假币制作者和收银员的关系:前者千方百计地造假币以假乱真,后者则想法设法地辨别假币。
最初的时候,生成对抗网络图像还是很容易辨别的,比如这些图:
01.jpg
然而,时间走到2017年10月,最新生成对抗网络下的人脸图像则很难辨认了。 2.jpg
实际上,我们在努力辨别生成对抗网络生成的图像时,会聚焦于人像面部,一方面是因为这是研究人员的常用测试场所,另一方面是因为人脸上最明显的人工细节同样会出现在其他类型的图像上。
1. 人像中的直发看起来就像抹了油漆一样
03.jpg
一般长发人像出现图中这种情况比较常见——小部分头发看起来都还好,但是总会有那么长长的一绺,看起来就像是被人用了调色刀或大刷子抹了一堆油漆一样。
2. 图像中的文字难以辨认
04.jpg
使用面部图像训练出来的生成对抗网络模型很难从复杂的背景图像中捕捉到不常见的事物。而且,训练数据包含了原图像以及原图像在镜子中的图像文件,这也就意味着,在生成模型时将会遇到麻烦,因为一般来说,生成对抗网络模型生成的图像只会以一个角度呈现。
3. 图像的背景并不真实
05.jpg
生成对抗网络图像中的人像看起来都比较真实,其中一个原因就在于训练集中的数据主要集中在面部训练这一块。这也就意味着,在涉及到具体细节如眼睛、耳朵等问题时,生成对抗网络模型并不会有较大的变化。另外,图像背景是可以容纳一切的,然而,这对于生成对抗网络模型来说,要求则有些高。生成对抗网络模型通常会复制一般的背景纹理,而不是“真正的”背景。
4. 图像细节不对称
06.jpg
如何解决图像中的长距离依赖性问题?这对生成对抗网络模型来说也着实是个难题。像耳环这样的对称性物体在数据库中通常是配对的,但是在生成对抗网络模型生成的图像中却是不配对的。或者我再举个例子:眼睛。我们期望眼睛具有相同的颜色,且朝着同一个方向。然而,在生成的图像中,人物的眼睛常常会指向不同的方向,而且颜色也不一样。这种不对称问题同样也会出现在耳朵上。
5. 奇怪的牙齿
07.jpg
生成对抗网络模型可以生成一般场景,但就目前的技术来说,对牙齿等半规则重复细节处理上还是有一些困难的。有时候,生成对抗网络模型生成的牙齿会错位,或以奇怪的方式拉伸和收缩牙齿。这个问题其实很早之前就出现在纹理合成图片等其他领域了,比如砖块。
6. 凌乱的头发
08.jpg
辨别头发的真假是辨别是否是生成对抗网络生成的图像的最快方法之一。一般来讲,生成对抗网络模型生成的图片中,头发会束成团块状,在肩膀周围形成随意的一绺,并在额头上留下厚厚的碎发。发型变化的方式很多,但是也有很多细节,生成对抗网络模型很难抓取到,比如说那些并不是头发但却和头发有着相似纹理的东西。
7. 非常规性性别表示
09.jpg
生成对抗网络模型是在CelebA的一个子集上训练的,其中包含10万个名人面孔的200k大小的图像。在该数据集里,所有人物均没有胡子,没有戴耳环,也没有化妆。生成对抗网络模型会将不同性别的性别特征混合在一起。我认为这多数是因为生成对抗网络模型并非一直在学习同类或二分类(如男性VS女性)。重要的是,我们应该清楚一点:像不对称和非常规性性别表示,它们本身并不是判断图像是否是真实的标准。与发型凌乱不同,它们不是单个图像中存在的视觉特征,而是大量图像在数据匹配过程中形成的差异性。
8. 半规则噪音
10.jpg
另外,某些单色区域,可能会有一些水平的或垂直的版规则噪音。如上图,可能就是网络模型试图模仿布料纹理的案例。比较老的生成对抗网络模型具有更突出的噪音模式,人们通常将其称为 “棋盘艺术”(因为这种噪音模式就像棋盘的格子一样)。
9. 多颜色混合
11.jpg
如图,一些浅色或纯色区域会出现多颜色混合状态,包括项圈位置,颈部和眼白位置。
12.jpg
接下来,我们来玩个游戏吧~
出现页面
13.jpg
点击start即可开始游戏。判断图片的真假,每组六题,判断完毕后会出现得分哦~
快来看一看,自己是否真的可以区分哪些是真实图片哪些是生成图片吧~

13.jpg