去年秋天,Tumblr用户对马丁斯科塞斯1973年执导的由罗伯特·德尼罗和阿尔·帕西诺主演的电影《冈察洛夫》大加赞赏。他们称赞这部鲜为人知的斯科塞斯经典作品是有史以来最伟大的黑手党电影。它领先于它的时代,却从未赢得它应得的赞誉。
现在,我们都应该知道,”Goncharov“不是一部真正的电影,尽管斯科塞斯本人也参与了这个笑话。这只是?Tumblr上的一个梗,后来演变成了整个网站的恶搞,用户们在共享的谷歌文档中彼此合作,真诚而准确地回答”yes,and“,以至于这部虚构的电影看起来似乎是合理的。
随着人工智能图像生成技术变得更好,互联网感觉有点像”Goncharov“时刻的Tumblr。我们正在创造新的集体现实,只是这一次,我们只是通过不加思索地发布信息而意外地产生了它们。
两周前,当人工智能图像生成器Midjourney开放对?Midjourney5模型的访问时,其超现实的输出迅速走红。一些生成的图像说明了这些容易获得的工具的危险性,比如一系列描绘唐纳德-特朗普被捕的假照片。
这组戏剧性的图片显示了特朗普强行拒捕,然后从一队警察面前冲刺而过等场景。这些像野火一样在互联网上疯传的图片是由调查新闻网站Bellingcat的创始人EliotHiggins制作的。Higgins最初的推文表明,他只是在玩,但这些推文在没有相关背景的情况下迅速传播开来。
注:目前该推文已添加了背景信息,称该照片由人工智能生成。
其他一些被疯传的人工智能图片则温和一些,比如一张广为流传的教皇弗朗西斯二世身穿一件令人惊艳的巴黎世家白色外套的高级时尚照片。关于这张照片的一条推文被浏览了2600多万次。
这甚至不是上周唯一一个与巴黎世家有关的AImeme病。一个名为?demonflyingfox的创作者一直在使用Midjourney图像、ElevenLabs语音和D-ID动画来制作超现实的、由AI驱动的搞怪视频。他传播最广的视频是”HarryPotterbyBalenciaga“,这是一则高级时装风格广告,其中合成的人物形象说着:”YouareBalenciaga,Harry“之类的话。
Demonflyingfox告诉TechCrunch,他有意让他的视频变得足够奇怪,以至于没有人会意外地相信它们是真的。。此外,他还故意使用Midjourney4,而不是更新的软件,以便他的角色看起来不那么逼真。
”我所做的事情显然是假的,我并不担心传播错误信息,这也是我的意图,“demonflyingfox说。”但我知道工具的力量,而且现在这样做非常容易。“
前提越可信,我们就越有可能将合成图像视为事实。如果你不是教皇着装方面的专家,你可能就会相信教皇在冬季外出时穿一件非常棒的白色羽绒服——要知道这位教皇,他的前卫摇滚专辑在Pitchfork上得到了评论,他还曾在阿根廷的夜总会当过保镖。
甚至连超级名模ChrissyTeigen也被这对这组图像信以为真。她在推特上称:”我以为教皇的羽绒服是真的,没有多想。“”我不可能在未来的技术中生存。“
除了”时尚教皇“,特朗普被捕的人工智能图片也在网上疯传,但任何人只要愿意扫描自己的推特时间轴,就能迅速核实事实,以寻找真正新闻突发的证据。对于人工智能生成的历史事件来说,这一过程就不那么明显了。
就在几天前,Reddit用户u/Arctic_Chilean在Midjourneysubreddit上发布了一组人工智能生成的照片,声称它们描绘了”2001年卡斯卡迪亚9.1大地震和海啸“,袭击了美国和加拿大。在reddit的这个版块里,我们致力于用Midjourney的人工智能工具进行实验,很明显,卡斯卡迪亚大地震并不是一个真实的事件。但是,如果r/Midjourney只是你订阅的众多子reddits中的一个,你就很容易不加思索地消费这些图片。
一个Reddit用户写道:”难道只有我一个人觉得‘我怎么不记得发生过这件事’。.....直到看到这个子reddit?
这些图像与现实非常相似,以至于人们相信它可能是真的。卡斯卡迪亚俯冲带是太平洋西北部附近的一条真实的断层线,1700年曾发生过大规模的破坏性地震。该地区的人们担心,这种规模的灾难可能在我们的有生之年再次发生,这种认识使人工智能生成的未来潜在事件的场景充满了不祥之感。
有时,像ChatGPT和BingAI这样的人工智能工具会产生“幻觉”--当它们自信地用虚假信息回答问题时,就会使用这一术语。淹没在合成图像的海洋中,我们可能都处于集体产生幻觉的边缘。
”我正想骂你呢,因为你在这个分论坛上发布了旧新闻,“r/midjourney的一个Redditor?评论道。”这些看起来太真实,太疯狂了。“
互联网社区倾向于聚集在一个小众的想法周围,并构建出关于它的深入知识,就像一种合作构建世界的行为。自然,这些虚假的历史事件也发生了同样的事情,Reddit用户开始创造他们自己的历史,讲述2001年地震如何影响全球。
”尽管2001年康科迪亚大地震的规模和破坏力很大,但似乎10年后,很少有人记得这一事件,“另一位用户在一篇捏造的新闻文章中写道,对这场从未发生的地震进行了错误的命名。”这可能是由于全球反恐战争、伊拉克战争和经济大衰退等综合因素造成的。“
最初发布这些图片的Redditor推测在9/11之前发生的重大灾难将如何影响反恐战争,认为这场灾难的经济影响可能会削弱对入侵伊拉克的支持。
随着广泛可用的AI图像生成器变得更加成熟,它们的创作可能会超过我们对大量可信但完全虚假的图像的适应能力。不管是好是坏,现在我们可以瞬间创造出自己的”Goncharov“,将任何模糊的虚构变成有形的东西,并将其放到网上。
虽然这些创作很多都是无害的,但不难想象合成图像将如何操纵公众对当前或历史事件的认识。
事实证明,”巴黎世家教皇“是一个31岁的有服用致幻药物的建筑工人的创意,他告诉BuzzFeed,他没有考虑人工智能图像的后果。他说:”如果他们不开始实施法律来规范它,情况肯定会变得严重。“
事实上,英国和美国一些州的立法者已经颁布禁令,禁止未经同意的深度伪造的人工智能。但像卡斯卡迪亚大地震和BalenciagaPope这样的meme并不具有内在的危害性,也不会很快面临监管。
人工智能生成的图像仍然不完美。地震中街道的标志看起来像是用Simlish写的,而且AI生成的图像中三指手的现象要比你在自然界中发现的多。通常,如果你足够仔细地观察人工智能生成的图像,你就会发现一些奇怪的畸变,一组像素会告诉你图像有问题。但现在越来越难区分的是,什么是真实的,什么是想象的,更难以想象接下来会发生什么。
?
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。