AI生成的图像很容易穿帮? 来考考自己分辨“照骗”的功力

更新:
2023年04月20日 20:53
以后恐难相信自己的眼睛

以后恐难相信自己的眼睛

近期人工智能(AI)技术突飞猛进,人人都可以透过Midjourney、DALL-E、Deepfakes以及Stable Diffusion等人工智能绘图程式“生成”海量的逼真图像和视频。

然而,一些AI图属于无伤大雅甚至是相当有创意,一些却是无中生有的假消息,能轻易挑动民众的情绪与恐慌。

危害不大的这些AI图像生成技术,就譬如不久前在清明节期间,中国有殡葬业者将商业头脑动到人工智能上,利用民众提供的逝去亲友的照片、影片、声音,甚至信件,“复活”了亲友的音容,甚至还能以亲友的“思路及个性”与生者对话,一解大家思念逝去亲友之苦。

以后恐难相信自己的眼睛
(互联网)

今年三月,有些自称“数码艺术家”的人,却利用AI生成图来恶意篡改和造谣。

例如亮出“照骗”,使大家误以为罗马天主教教宗方济各(Pope Francis)穿着高级名牌羽绒服和墨镜:

再如,乌克兰总统泽连斯基呼吁乌克兰士兵放下武器向俄罗斯投降的假视频:

以后恐难相信自己的眼睛
(推特)

在“照骗”满天飞的时代,当我们在网上或社媒上看到一张图片时,要如何分辨真伪,才不会被利用,成为散布流言蜚语的“帮凶”呢?

人工智能绘图程式MidJourney根据《海峡时报》提供的文本描述,制作出新加坡人熟悉的场景图,考考大家能否分辨出哪些是“照骗”,同时也教我们如何用肉眼来分辨。

给AI的指示:1942年2月15日,日军入侵,新加坡沦陷,最高将领们召开紧急会议

以后恐难相信自己的眼睛
(上)
以后恐难相信自己的眼睛
(下)

照骗:下面那张是AI生成图。最左边戴眼镜的人和站在右边的人的眼睛都是畸形的,而且将军们肩带上的军衔也与历史不相符。

真图:上面那张是位于福康宁山的英军地下指挥中心博物馆(Battlebox)的一组蜡像,是《海峡时报》记者拍的。站立的是联军总司令白思华中将,1942年2月15日的那一天,他与其他英军高级指挥官就在这个指挥总部,决定向日军投降。

给AI的指示:新加坡国庆庆典观众人群

以后恐难相信自己的眼睛
(上)
以后恐难相信自己的眼睛
(下)

照骗:上面那张是AI生成图。最明显的漏洞就是图中的国旗。人工智能生成器似乎设法避免复制新加坡国旗,却弄巧反拙。此外,大部分观众的脸都很模糊或被扭曲,也无法根据周围环境辨认出确切地点,路灯也不像新加坡的路灯。

真图:下面那张是《海峡时报》摄记拍的。2019年在大草场举行的国庆庆典上,观众挥舞着新加坡国旗。

给AI的指示:新加坡海滩的“生物发光”现象

以后恐难相信自己的眼睛
(上)
以后恐难相信自己的眼睛
(下)

照骗:上面那张是AI生成图。海里有一种特殊的浮游生物(Plankton)——夜光藻(Noctiluca scintillans),受到外部刺激(如海浪拍打岸边)时会发出蓝光。当夜光藻越来越多,聚集在一起时就会形成一条闪亮的“蓝眼泪”。然而这张AI图里,浮游生物发出的蓝光似乎来自沙子,而非来自海水中的夜光藻。

真图:下面这张是由《海峡时报》摄记在2022年11月拍的,当时圣淘沙丹戎海滩上出现发光浮游生物。

给AI的指示:小组讨论

以后恐难相信自己的眼睛
(上)
以后恐难相信自己的眼睛
(下)

照骗:下面那张是AI生成图。女人的头发是扭曲的,戴眼镜男人的眼睛也是畸形的,右边的男人有两只右手。此外,笔记本电脑没有键盘。

真图:由图库公司FAUXELS提供的小组讨论照。

给AI的指示:到鬼屋玩的游客

以后恐难相信自己的眼睛
(上)
以后恐难相信自己的眼睛
(下)

照骗:上面那张是AI生成图。虽然这回AI图像生成器似乎看似成功创建了一只逼真的手,但其实穿红色上衣的女士的右臂异常的长,姿势很尴尬,还是有所欠缺。

真图:下面这张是《海峡时报》摄记拍的照片,一群游客在圣淘沙名胜世界热门景点环球影城推出的“万圣节恐怖夜”活动(Halloween Horror Nights 7)的鬼屋内被吓着。

综上所述,AI生成图的破绽和造假迹象基本可以总结为:

  1. 眼睛是不是畸形的,被扭曲了;
  2. 手指的细节,譬如多过或少过五只手指,或者手指之间没有缝隙;
  3. 手臂的长度是否过长或过短、朝向对不对;
  4. 身体往往不成比例,可能有过大的躯干、缺少某个身体部分,或者出现畸形的四肢等;
  5. 警察徽章等较小的物品上的文字往往是胡言乱语;
  6. 照片的聚焦点错误,不符合真相机拍出来的效果。

必须指出的是,人工智能也会越来越聪明,慢慢地学会避开这些漏洞。日后也许要辨别AI生成图就更加困难。

不过,即使上述那6个“破假”建议目前依然有效,前提是,看图片的人也必须有足够的知识量,或会养成习惯下意识去鉴别图片真伪。

因为但凡眼力差一些、对拍摄技术不熟悉、甚至是对历史事件不了解的人,恐怕都无法分辨出个所以然。

而且一般人在手机上浏览大量社媒图文贴子时,或收到朋友转发过来的图片时,通常不会时刻保持警惕或带着怀疑的心态。

就像下图一队纽约警察当街“捉拿”美国前总统特朗普的AI生成照,很多人乍看下都信以为真。

以后恐难相信自己的眼睛
(英国广播公司)

图片的出现,刚好就在特朗普因涉嫌支付色情片女星“上床封口费”而惹官司时。他被逮捕也与他大起大落的人生轨迹相符,加上多数人对他都存有认知偏见,很容易就相信了这张图片的真实性。

接着就点赞和转发。

随着点赞人数增加以及被疯传,大家就越加相信它。假消息就这样传开了。

AI当道应该是不远的事情了。在辨认生成图的成熟技术还未面世前,我们依然得时刻学会运用批判性思维,去鉴别图片的真伪。

想分享你的文章?

请电邮:antseditorial@redants.sg