AIGC听起来这么好,那跟Web3会有什么关系?大概有这几个方向值得关注。
由AI作画应用Midjourney生成的绘画作品《太空歌剧院》在今年9月美国科罗纳州博览会上获得艺术比赛一等奖,吸引了不少人的眼球。今年以来连续好几个AIGC领域的项目获得了不错的融资,到底AIGC有什么特别之处?本文将对AIGC近来的发展作一个梳理介绍。
美国科罗纳州博览会获奖艺术作品《太空歌剧院》
什么是AIGC?
互联网内容生产方式经历了PGC——UGC——AIGC的过程。PGC是专业生产内容,如Web1.0和广电行业中专业人员生产的文字和视频,其特点是专业、内容质量有保证。UGC是用户生产内容,伴随Web2.0概念而产生,特点是用户可以自由上传内容,内容丰富。AIGC是由AI生成的内容,其特点是自动化生产、高效。随着自然语言生成技术NLG和AI模型的成熟,AIGC逐渐受到大家的关注,目前已经可以自动生成文字、图片、音频、视频,甚至3D模型和代码。AIGC将极大的推动元宇宙的发展,元宇宙中大量的数字原生内容,需要由AI来帮助完成创作。
内容生产方式演变过程
AIGC底层技术突破
底层技术的突破使AIGC商业落地成为可能,传统AI绘画技术采用生成对抗网络,但GAN生成的图片结果输出不稳定,分辨率低。直到2021年OpenaAI团队开源了其深度学习模型CLIP,以及今年7月出现的去躁扩散模型Diffusion,两者相互结合,让AI自动生成文字和图片的质量得到了质的提升。
Diffusion是一种去噪扩散模型,工作原理是对图像逐步施加噪点,直至图像被破坏变成完全的噪点,然后再逆向学习从全噪点还原为原始图像的过程,而AI所看到的是全是噪点的画面如何一点点变清晰直到变成一幅画,通过这个逆向过程来学习如何作画。
孙宇晨:SUN社区将通过投票选出下个SUN矿池:波场创始人孙宇晨发推表示,SUN社区将通过投票选出下一个SUN矿池,每个SUN持有者都可以参与投票,利用投票奖励支持自己最喜欢的TRC20项目,具体的信息将会在下周宣布。[2020/9/18]
CLIP是OpenAI在2021年初发布的用于匹配文本和图像的神经网络模型,是近年来在多模态研究领域的杰出成果,它一方面对文字进行语言分析,另一方面对图形进行视觉分析,不断调整两个模型内部参数,达到文字和图像高度匹配的效果。
在AI生成文字方面,目前AI已经可以作诗、写邮件、写广告、剧本和小说。在今年,采用AIGC技术的虚拟人度晓晓写作高考作文,在不到1分钟的时间,完成了40多篇文章,获得专家打分48分的成绩,击败了75%的考生。目前OpenAI的GPT-3模型是AI生成文字中最成熟的模型,最近有一些项目把GPT-3模型商业化,包括自动写邮件的OthersideAI,自动写广告文案的Copy.ai和Jasper.ai,在用户数量上突飞猛进,并获得了大笔的融资,就在11月16日知识管理和内容协作平台Notion也发布了其文字自动生成产品NotionAI,并开始Alpha版本测试,NotionAI也是基于GPT-3模型开发。
在AI生成图片方面,今年AI作画水平突飞猛进,其背后的算法模型也在不断迭代,年初推出的DiscoDiffusion只能生成粗糙的图片,4月OpenAI发布的DALL-E2代已经可以生成完整的人像和图片,到8月StabilityAI发布的StableDiffusion模型取得质的突破,已经可以生成可以媲美专业画师的作品,生成图片的效率也从年初的数小时到现在的几分钟甚至数十秒。
AI生成图片技术演变
在AI生成音频方面,10月11日,AI播客Podcast.ai生成的一段关于乔布斯和美国知名主持人乔·罗根之间的20分钟访谈播客在科技圈广为流传,在播客中乔布斯谈到自己的大学时代、对计算机、工作状态和信仰的看法,整个播客听起来毫无违和感,基本做到以假乱真。
孙宇晨就Justswap上线致币圈的公开信:关于变更为JST流动性挖矿奖励:据最新消息显示,波场TRON创始人兼BitTorrent CEO孙宇晨刚刚发布了就Justswap上线致币圈的公开信,孙宇晨表示:“停止针对于TRX持有者的月度JST空投奖励,变更为JST流动性挖矿奖励。停止对于TRX持有者的JST月度空投奖励,将极大的降低JST的市场流动量,提升JST价值,与此同时,我们将全部奖励用于流动性挖矿,鼓励锁仓TRX,BTT,JST等代币来获得JST奖励,具体活动细则将近期宣布,细则将全部公示!”[2020/8/19]
由AI生成的乔·罗根采访乔布斯播客
在AI生成视频方面,目前AI生成视频的算法模型还未成熟,也还没出现一家独大的局面。9月底Meta公布了AI制作视频工具Make-A-Video,Google也紧接着发布了ImagenVideo和Phenaki。Make-A-Video具有文字转视频、图片转视频、视频生成视频三种功能。仅仅通过文本描述,Phenaki就可以生成一段情节连贯的视频。10月9日B站上的UP主“秋之雪华”公布了全球首个AI绘图、AI配音的动画《夏末弥梦》的DEMO,其画面精美程度不输专业画师的作品。
AI动画《夏末弥梦》DEMO
但PANews观看该DEMO后发现,动画中人物几乎是静态的,只是在场景切换时换了个另一张图,由此可以看出目前AI生成视频中动画的过度和连贯性技术还不是很成熟,因为AI生成视频需要多个AI模型来配合完成。
AI生成视频技术模型
从技术上看,视频是把多张图片有逻辑和连贯的组合在一起。由文字生成视频,首先要生成多张图片,然后还要把这些图片有逻辑和连贯性的组合起来,因此难度比文字生成图片高了很多,如果一旦像文字生成图片那样能够高效率的生成高品质视频,将对内短视频、影视、游戏、广告等内容生产行业带来重大影响,不仅提升视频制作的效率和成本,还能帮助设计师产生更多的灵感和创意,让视频内容行业变得更加丰富和繁荣。
动态 | 孙宇晨亲自参与TRONZ团队的隐私协议MPC过程:据官方最新信息,波场TRON创始人孙宇晨亲自参加了TRONZ团队的主网MPC过程,参与结果验证成功。此前,波场社区TRONZ团队完成匿名交易在波场网络上的公测,测试网已经顺利部署,并正式开启了主网MPC流程。TRONZ MPC过程得到了社区的大力支持,众多申请人参与报名。目前已经有多位申请人完成了MPC过程,后续参与人的MPC过程持续进行中。[2020/1/12]
在AI生成3D方面,以往的“3D建模”需要利用三维制作软件通过虚拟三维空间构建出具有三维数据的模型,技术要求比较高,需要懂美术、熟悉3DMAX和Maya等软件,还需要大量的时间去人工绘制。但UCBerkeley的几个博士后发表的论文神经辐射场技术可以把全景相机拍摄的视频自动渲染为3D场景,减少了人工3D建模的过程,NeRF技术在2020年的ECCV(欧洲计算机视觉国际会议)提出,并在2021年的ACM获了荣誉提名奖。著名VR科技博主RobertScoble7月在他的Twitter发布了这个视频,他用NeRF技术渲染Insta360全景相机所拍视频后得到的3D场景,效果令人惊叹,预计会有相关项目将NeRF技术进行商业落地尝试,对于这点非常值得期待。
AIGC领域重要项目
今年加入AI作画赛道的公司越来越多,今年分别出现了MidJourney、DALL-E2、StableDiffusion、Tiamat、百度文心等多家AI作画公司,以及JasperAI、CopyAI这样的AI文字项目。
从融资角度来看,目前AIGC有3个商业化的方向:
第一个方向是通过AI生成文字,比如自动写邮件和广告营销文案,这要归功于OpenAI的GPT-3AI语言模型,目前大多数AI生成文字类项目都使用该模型。
第二个方向是利用AI作图,主要技术是结合多模态神经语言模型CLIP和图像去躁扩散模型Diffusion,仅仅提供一些关键词描述就可以自动生成图片。
第三个方向是AIGC的底层技术模型开发,OPENAI和StableAI是这个方向的龙头,也是融资金额最大的。
预计接下来AIGC的热门方向可能是用AI生成视频和动画,这就看Meta、Google的AI视频模型能不能解决视频的连贯性和逻辑性问题,或其他公司提出更好的解决方案。
声音 | 孙宇晨:愿在智能合约中支持TRC-10/20代币及DPOS机制:孙宇晨发布推特称,波场愿意为zk-SNARK做出努力,并在智能合约中支持TRC-10、TRC-20代币和DPOS机制。12月17日消息,波场宣布即将进行匿名交易公测。[2019/12/18]
AIGC领域热门项目
OpenAI/GPT-3,OpenAI是由马斯克和Y-CombinatorCEOSamAltman于2015年成立的一个非营利组织,但2019年马斯克离开了OpenAI,紧接着微软注资10亿美元将其变为营利性公司,并与微软的云计算平台Azure展开合作。最近微软正在对OpenAI进行新一轮的投资进行后期谈判,目前估值已经达200亿美金。GPT-3是OpenAI于2020年5月推出的自然语言处理模型,支持用户仅输入一些关键词就能生成一封邮件、文章或新闻,甚至是小说,它是目前最成熟的自然语言生成技术NLG之一。今年4月OpenAI还推出了DALL-E2项目,允许用户通过文本生成图像,成为目前主流的三大AI作画应用之一。
StableAI/StableDiffusion,10月17日英国的StabilityAI宣布以10亿美元的估值完成1.01亿美元融资,此次融资由Coatue和Lightspeed领投。消息称StabilityAI正准备下一轮10亿美金的融资,本轮融资Google可能会参与,如果投资成功,相信Google将会和StableAI深度合作。StabilityAI成立于2020年,由去中心化组织EleutherAI支持开发,其理念是“AIbythepeople,forthepeople”。StableAI主要研AI生成图片、音频、视频和3D的模型,其研发的开源AI作图模型StableDiffusion在2022年8月一经推出就立刻吸引了大家的眼球,在StableDiffusion的DreamStudio测试版网站中只要输入文字描述,它就能生成一副可以媲美专业画师的图片,StableDiffusion是开源产品,一些AIGC项目对其进行了二次开发,退出了包括图像、语言、音频、视频、3D、生物AI等模型。
动态 | 孙宇晨向肌萎缩侧索硬化协会捐款25万美元:据cointelegraph报道,孙宇晨向肌萎缩侧索硬化(ALS)协会捐赠25万美元,并将利用Tron区块链网络跟踪赠款流向。ALS协会计划在活动结束时向公众发布Tron跟踪的数据。[2019/2/12]
Midjourney:Midjourney是一款可以和StableDiffusio以及DALL-E2媲美的AI绘画工具。Midjourney是部署在Discord上的应用,在Discord里输入文字,一分钟就可以生成对应的图片,目前其官方Discord已经拥有140万用户,其免费版本能生成的图片数量有限,超出数量需要付费订阅,如果想体验一下Midjourney作图可以查看这个教程。
由Midjourney生成的图片
OthersideAI:OthersideAI主打利用AI自动回复邮件,底层技术采用OpenAI的GPT-3协议,OthersideAI曾获得MadronaVentureGroup领投的260万美金种子轮融资,MadronaVentureGroup曾参投过Amazon的早期种子轮融资。OthersideAI的操作非常简单,只要输入邮件内容的关键要点,它就可以为生成一封完整的邮件。
CopyAI:Copy.ai是一个通过AI来写作广告和营销文案的创业公司,它可以帮助用户几秒钟内生成高质量的广告和营销文案,主打ToB商业场景,它的底层技术也是采用OpenAI的GPT-3协议。目前Copy.ai的用户包括像微软、Ebay这样的大公司。Copy.ai曾获得CraftVentures领投的290万美金种子轮,A轮融资1100万美金,由WingVentureCapital领投,红杉资金及TigerGlobal跟投。
JasperAI:Jasper.ai成立于2020年,通过AI帮企业和个人写营销推广文案以及博客等各种文字内容,其底层技术也是GPT-3。Jasper.ai10月以15亿美金估值完成了1.25亿美元的A轮融资,由InsightPartners领投,Coatue、BVP以及IVP跟投。今年1月推出第一个版本后,很快受到欢迎,短时间内获得了数百万美元的收入。
Play.ht:Play.ht是一个AI文本转换语音应用,在今年9月发布了第一个语音模型Peregrine,包含数千种说话的声音,可以学习人类的语气、音调和笑声。再进生成采访乔布斯播客的Podcast.ai就是采用Play.ht语音模型,它通过大量采集网络上关于乔布斯的录音,然后进行训练,最终生成假乔布斯的声音,相似度非常高。
NotionAI:刚刚于本月16日公布的NotionAI是知名知识管理和内容协作平台Notion基于OpenAIGPT-3模型开发的AI文字生成工具。目前NotionAI的功能包括自动撰写文章、广告文案和播客;通过头脑风暴为用户提供创意建议;自动检查文字拼写和语法错误;自动翻译文章;目前NotionAI以白名单的形式开放Alpha版本测试。相信NotionAI的加入将会进一步推动AI生成文字走向普及。
AIGC如何助推元宇宙发展
虽然元宇宙的终极形态还无法确定,但可以肯定的是元宇宙将极大扩展人类的存在空间,在我们迈向元宇宙的过程中,需要大量的数字内容来支撑,单靠人工来设计和开发根本无法满足需求,AIGC正好可以解决这个问题。游戏将是元宇宙中最先落地的场景,元宇宙和游戏有一个共同点,都是为用户提供高度的真实感和沉浸式体验,我们可以拿AIGC在游戏中的应用来说明其将如何主推元宇宙发展。
AIGC技术在游戏中的应用
开发游戏周期长和成本高,通常需要花费几年时间和上千万资金,好在AIGC可以极大提高游戏的开发效率,具体来说,游戏中的剧本、人物、头像、道具、场景、配音、动作、特效、主程序未来都可以通过AIGC生成。根据AIGC在文字和图像方向的推进速度,以上应用在五到十年之内应该可以实现。
红杉资本在最近的研究报告中也指出,到2030年文本、代码、图像、视频、3D、游戏都可以通过AIGC生成,并且达到专业开发人员和设计师的水平。
图片来源:红杉资本
除了游戏之外,虚拟人也是元宇宙的一个重要落地场景,AIGC同样也会促进虚拟人赛道的发展。
虚拟人是围绕一个虚拟的人设,为其设计声音、形象、动作、性格以及活动场景,其本质和游戏相似度很高。虚拟人注重一个人在虚拟世界的表演和功能性,游戏注重多个人在虚拟世界中的交互体验。游戏是一出戏,虚拟人也是在演一出戏,戈夫曼拟剧理论中的“人生如戏”一语道破了现实世界、虚拟世界的本质。
AIGC在Web3方向的应用
AIGC听起来这么好,那跟Web3会有什么关系?最近听说Web3的基金都在看AIGC方向的项目,我想大概有这几个方向值得关注。
Gamefi开发引擎:在传统游戏中应用最广的开发引擎是Unity和Unreal,但在Web3中,游戏的开发范式也许会因AIGC带来许多变革,因此将需要一个采用AIGC技术的Gamefi开发引擎。里面的人物、场景、动画均用AIGC设计,游戏中的主程序和区块链部分也可以通过AIGC代码生成功能完成,如果这些都能实现,设计Gamefi游戏或者元宇宙场景将变得非常高效,这一套开发引擎将会具有极高的价值。目前看到RCTAI是运用人工智能为游戏行业提供完整解决方式的一个项目,但其在多大程度上采用了AIGC技术,还不得而知,不过已经有一款Gamefi游戏MirrorWorld是基于RCTAI来开发的,有兴趣的朋友可以进一步了解。
开发Gamefi游戏:退而求其次,如果一套AIGC全集成的Gamefi开发引擎还太遥远,那采用各个厂商提供的AIGC工具来开发Gamefi游戏也会极大的提高效率,比如用AIGC来生成游戏剧本、设计人物、生成动画这些都几乎都会很快实现,特别在AI生成视频和3D场景技术一旦成熟之后Gamefi游戏开发效率将会突飞猛进。
算力和数据共享:训练AIGC模型需要海量的数据和强大的算力,这导致成本非常巨大,AIGC行业龙头StabilityAI为了训练其StableDiffusion模型,在AWS中运行了包含4000多个NvidiaA100GPU的集群,运营成本高达数千万美元。如果能通过去中心化方式发行Token激励用户提供训练模型所需的数据,就可以很好的解决AIGC生成中的版权问题。另外也可以通过发行Token的方式,激励用户提供训练模型所需要的大量算力,分散算力成本,实现成本共担,利益共享。
结语
今年7月李彦宏在百度世界大会上判断,AIGC将分为三个发展阶段:“助手阶段”——“协作阶段”——“原创阶段”。“未来十年,AIGC将颠覆现有内容生产模式。可以实现以十分之一的成本,以百倍千倍的生产速度,去生成AI原创内容。”
在最近的研究报告中,红杉资本的两位合伙人也认为:“AIGC目前已经拥有更好的模型,更多的数据,更好的算力,预计杀手级应用该要出现了”。
对于以上判断,我们倾向于认同,AIGC的出现意味着创作者将从繁冗的基础性工作中解脱出来,把更多的精力放到创意表达上,这是未来内容创作行业,甚至是人类工作方式的整体趋势。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。