AIGC听起来这么好,那跟Web3会有什么关系?大概有这几个方向值得关注。
由AI作画应用Midjourney生成的绘画作品《太空歌剧院》在今年9月美国科罗纳州博览会上获得艺术比赛一等奖,吸引了不少人的眼球。今年以来连续好几个AIGC领域的项目获得了不错的融资,到底AIGC有什么特别之处?本文将对AIGC近来的发展作一个梳理介绍。
美国科罗纳州博览会获奖艺术作品《太空歌剧院》
什么是AIGC?
互联网内容生产方式经历了PGC——UGC——AIGC的过程。PGC是专业生产内容,如Web1.0和广电行业中专业人员生产的文字和视频,其特点是专业、内容质量有保证。UGC是用户生产内容,伴随Web2.0概念而产生,特点是用户可以自由上传内容,内容丰富。AIGC是由AI生成的内容,其特点是自动化生产、高效。随着自然语言生成技术NLG和AI模型的成熟,AIGC逐渐受到大家的关注,目前已经可以自动生成文字、图片、音频、视频,甚至3D模型和代码。AIGC将极大的推动元宇宙的发展,元宇宙中大量的数字原生内容,需要由AI来帮助完成创作。
内容生产方式演变过程
AIGC底层技术突破
底层技术的突破使AIGC商业落地成为可能,传统AI绘画技术采用生成对抗网络,但GAN生成的图片结果输出不稳定,分辨率低。直到2021年OpenaAI团队开源了其深度学习模型CLIP,以及今年7月出现的去躁扩散模型Diffusion,两者相互结合,让AI自动生成文字和图片的质量得到了质的提升。
法国金融监管机构修改加密公司注册要求,以符合欧盟MiCA规定:8月10日消息,法国金融监管机构AMF宣布,法国修改了加密货币公司的注册要求,以更好地符合欧盟MiCA对该行业的新规定。AMF表示,增强型注册要求将于2024年1月1日起生效,对于寻求提供任何受监管服务的新参与者来说将是强制性的。这些变化还将允许实施快速通道程序,以对已经在该国运营并获得批准的公司进行授权。[2023/8/10 16:17:57]
Diffusion是一种去噪扩散模型,工作原理是对图像逐步施加噪点,直至图像被破坏变成完全的噪点,然后再逆向学习从全噪点还原为原始图像的过程,而AI所看到的是全是噪点的画面如何一点点变清晰直到变成一幅画,通过这个逆向过程来学习如何作画。
CLIP是OpenAI在2021年初发布的用于匹配文本和图像的神经网络模型,是近年来在多模态研究领域的杰出成果,它一方面对文字进行语言分析,另一方面对图形进行视觉分析,不断调整两个模型内部参数,达到文字和图像高度匹配的效果。
在AI生成文字方面,目前AI已经可以作诗、写邮件、写广告、剧本和小说。在今年,采用AIGC技术的虚拟人度晓晓写作高考作文,在不到1分钟的时间,完成了40多篇文章,获得专家打分48分的成绩,击败了75%的考生。目前OpenAI的GPT-3模型是AI生成文字中最成熟的模型,最近有一些项目把GPT-3模型商业化,包括自动写邮件的OthersideAI,自动写广告文案的Copy.ai和Jasper.ai,在用户数量上突飞猛进,并获得了大笔的融资,就在11月16日知识管理和内容协作平台Notion也发布了其文字自动生成产品NotionAI,并开始Alpha版本测试,NotionAI也是基于GPT-3模型开发。
在AI生成图片方面,今年AI作画水平突飞猛进,其背后的算法模型也在不断迭代,年初推出的DiscoDiffusion只能生成粗糙的图片,4月OpenAI发布的DALL-E2代已经可以生成完整的人像和图片,到8月StabilityAI发布的StableDiffusion模型取得质的突破,已经可以生成可以媲美专业画师的作品,生成图片的效率也从年初的数小时到现在的几分钟甚至数十秒。
战略咨询公司贝恩公司收购Web3数字产品工作室Umbrage:2月2日消息,战略咨询公司贝恩公司宣布收购 Web3 数字产品工作室 Umbrage,Umbrage 将与 Bain 的创新与设计服务密切合作,并在产品管理、UI/UX 设计、全栈开发、DevOps、QA 和 Web3 等领域额外的深厚技术专长。此举将进一步为客户提供端到端交付能力,以概念化、设计、构建和扩展下一层软件驱动的业务模型和产品。
迄今为止,贝恩的数字交付平台 Vector 团队已为全球各行各业的 6700 多个数字项目提供建议,在高级分析、创新与设计、软件工程和企业技术方面提供端到端的交付能力。[2023/2/2 11:43:00]
AI生成图片技术演变
在AI生成音频方面,10月11日,AI播客Podcast.ai生成的一段关于乔布斯和美国知名主持人乔·罗根之间的20分钟访谈播客在科技圈广为流传,在播客中乔布斯谈到自己的大学时代、对计算机、工作状态和信仰的看法,整个播客听起来毫无违和感,基本做到以假乱真。
由AI生成的乔·罗根采访乔布斯播客
在AI生成视频方面,目前AI生成视频的算法模型还未成熟,也还没出现一家独大的局面。9月底Meta公布了AI制作视频工具Make-A-Video,Google也紧接着发布了ImagenVideo和Phenaki。Make-A-Video具有文字转视频、图片转视频、视频生成视频三种功能。仅仅通过文本描述,Phenaki就可以生成一段情节连贯的视频。10月9日B站上的UP主“秋之雪华”公布了全球首个AI绘图、AI配音的动画《夏末弥梦》的DEMO,其画面精美程度不输专业画师的作品。
AI动画《夏末弥梦》DEMO
但PANews观看该DEMO后发现,动画中人物几乎是静态的,只是在场景切换时换了个另一张图,由此可以看出目前AI生成视频中动画的过度和连贯性技术还不是很成熟,因为AI生成视频需要多个AI模型来配合完成。
链间流动性协议White Whale提议在Injective上推出其DApp:10月14日消息,链间流动性协议White Whale宣布已发起在Injective上推出其借贷和AMM DApp的链上治理提案。
根据该提案,White Whale计划在Injective上部署其Liquidity Hubs,其中包含Bot First Pools(BFPs)和Flash Loan Vaults。用户可根据套利策略产生收益,套利者可以利用Injective基础设施设置其机器人来进行零抵押闪电贷。[2022/10/14 14:27:51]
AI生成视频技术模型
从技术上看,视频是把多张图片有逻辑和连贯的组合在一起。由文字生成视频,首先要生成多张图片,然后还要把这些图片有逻辑和连贯性的组合起来,因此难度比文字生成图片高了很多,如果一旦像文字生成图片那样能够高效率的生成高品质视频,将对内短视频、影视、游戏、广告等内容生产行业带来重大影响,不仅提升视频制作的效率和成本,还能帮助设计师产生更多的灵感和创意,让视频内容行业变得更加丰富和繁荣。
在AI生成3D方面,以往的“3D建模”需要利用三维制作软件通过虚拟三维空间构建出具有三维数据的模型,技术要求比较高,需要懂美术、熟悉3DMAX和Maya等软件,还需要大量的时间去人工绘制。但UCBerkeley的几个博士后发表的论文神经辐射场技术可以把全景相机拍摄的视频自动渲染为3D场景,减少了人工3D建模的过程,NeRF技术在2020年的ECCV(欧洲计算机视觉国际会议)提出,并在2021年的ACM获了荣誉提名奖。著名VR科技博主RobertScoble7月在他的Twitter发布了这个视频,他用NeRF技术渲染Insta360全景相机所拍视频后得到的3D场景,效果令人惊叹,预计会有相关项目将NeRF技术进行商业落地尝试,对于这点非常值得期待。
AIGC领域重要项目
今年加入AI作画赛道的公司越来越多,今年分别出现了MidJourney、DALL-E2、StableDiffusion、Tiamat、百度文心等多家AI作画公司,以及JasperAI、CopyAI这样的AI文字项目。
Gemini宣布继续参与夏威夷的数字货币创新沙盒:7月12日消息,Gemini宣布,其参与数字货币创新实验室 (DCIL)的计划将延长两年,该计划旨在为夏威夷居民提供受监管的加密访问。尽管最初的DCIL计划计划于今年晚些时候对所有参与者结束,但夏威夷金融机构部 (DFI) 和夏威夷科技发展公司 (HTDC) 将该计划延长至2024年。该计划旨在通过早期采用加密货币来刺激经济机会,通过向加密货币发行人提供指导来保护消费者,并收集数据以制定加密货币立法。通过参与该计划,Gemini将继续为美国所有50个州的客户提供安全且受监管的加密生态系统入口。[2022/7/13 2:08:47]
从融资角度来看,目前AIGC有3个商业化的方向:
第一个方向是通过AI生成文字,比如自动写邮件和广告营销文案,这要归功于OpenAI的GPT-3AI语言模型,目前大多数AI生成文字类项目都使用该模型。
第二个方向是利用AI作图,主要技术是结合多模态神经语言模型CLIP和图像去躁扩散模型Diffusion,仅仅提供一些关键词描述就可以自动生成图片。
第三个方向是AIGC的底层技术模型开发,OPENAI和StableAI是这个方向的龙头,也是融资金额最大的。
预计接下来AIGC的热门方向可能是用AI生成视频和动画,这就看Meta、Google的AI视频模型能不能解决视频的连贯性和逻辑性问题,或其他公司提出更好的解决方案。
AIGC领域热门项目
OpenAI/GPT-3,OpenAI是由马斯克和Y-CombinatorCEOSamAltman于2015年成立的一个非营利组织,但2019年马斯克离开了OpenAI,紧接着微软注资10亿美元将其变为营利性公司,并与微软的云计算平台Azure展开合作。最近微软正在对OpenAI进行新一轮的投资进行后期谈判,目前估值已经达200亿美金。GPT-3是OpenAI于2020年5月推出的自然语言处理模型,支持用户仅输入一些关键词就能生成一封邮件、文章或新闻,甚至是小说,它是目前最成熟的自然语言生成技术NLG之一。今年4月OpenAI还推出了DALL-E2项目,允许用户通过文本生成图像,成为目前主流的三大AI作画应用之一。
GameStop选择0x协议API为其数字资产钱包中的DEX交易提供支持:7月10日消息,电子游戏及相关产品零售商GameStop为在其自托管钱包中支持DEX交易,使用0x协议API访问多链流动性,为其用户提供无缝的交易体验。[2022/7/10 2:03:05]
StableAI/StableDiffusion,10月17日英国的StabilityAI宣布以10亿美元的估值完成1.01亿美元融资,此次融资由Coatue和Lightspeed领投。消息称StabilityAI正准备下一轮10亿美金的融资,本轮融资Google可能会参与,如果投资成功,相信Google将会和StableAI深度合作。StabilityAI成立于2020年,由去中心化组织EleutherAI支持开发,其理念是“AIbythepeople,forthepeople”。StableAI主要研AI生成图片、音频、视频和3D的模型,其研发的开源AI作图模型StableDiffusion在2022年8月一经推出就立刻吸引了大家的眼球,在StableDiffusion的DreamStudio测试版网站中只要输入文字描述,它就能生成一副可以媲美专业画师的图片,StableDiffusion是开源产品,一些AIGC项目对其进行了二次开发,退出了包括图像、语言、音频、视频、3D、生物AI等模型。
Midjourney:Midjourney是一款可以和StableDiffusio以及DALL-E2媲美的AI绘画工具。Midjourney是部署在Discord上的应用,在Discord里输入文字,一分钟就可以生成对应的图片,目前其官方Discord已经拥有140万用户,其免费版本能生成的图片数量有限,超出数量需要付费订阅,如果想体验一下Midjourney作图可以查看这个教程。
由Midjourney生成的图片
OthersideAI:OthersideAI主打利用AI自动回复邮件,底层技术采用OpenAI的GPT-3协议,OthersideAI曾获得MadronaVentureGroup领投的260万美金种子轮融资,MadronaVentureGroup曾参投过Amazon的早期种子轮融资。OthersideAI的操作非常简单,只要输入邮件内容的关键要点,它就可以为生成一封完整的邮件。
CopyAI:Copy.ai是一个通过AI来写作广告和营销文案的创业公司,它可以帮助用户几秒钟内生成高质量的广告和营销文案,主打ToB商业场景,它的底层技术也是采用OpenAI的GPT-3协议。目前Copy.ai的用户包括像微软、Ebay这样的大公司。Copy.ai曾获得CraftVentures领投的290万美金种子轮,A轮融资1100万美金,由WingVentureCapital领投,红杉资金及TigerGlobal跟投。
JasperAI:Jasper.ai成立于2020年,通过AI帮企业和个人写营销推广文案以及博客等各种文字内容,其底层技术也是GPT-3。Jasper.ai10月以15亿美金估值完成了1.25亿美元的A轮融资,由InsightPartners领投,Coatue、BVP以及IVP跟投。今年1月推出第一个版本后,很快受到欢迎,短时间内获得了数百万美元的收入。
Play.ht:Play.ht是一个AI文本转换语音应用,在今年9月发布了第一个语音模型Peregrine,包含数千种说话的声音,可以学习人类的语气、音调和笑声。再进生成采访乔布斯播客的Podcast.ai就是采用Play.ht语音模型,它通过大量采集网络上关于乔布斯的录音,然后进行训练,最终生成假乔布斯的声音,相似度非常高。
NotionAI:刚刚于本月16日公布的NotionAI是知名知识管理和内容协作平台Notion基于OpenAIGPT-3模型开发的AI文字生成工具。目前NotionAI的功能包括自动撰写文章、广告文案和播客;通过头脑风暴为用户提供创意建议;自动检查文字拼写和语法错误;自动翻译文章;目前NotionAI以白名单的形式开放Alpha版本测试。相信NotionAI的加入将会进一步推动AI生成文字走向普及。
AIGC如何助推元宇宙发展
虽然元宇宙的终极形态还无法确定,但可以肯定的是元宇宙将极大扩展人类的存在空间,在我们迈向元宇宙的过程中,需要大量的数字内容来支撑,单靠人工来设计和开发根本无法满足需求,AIGC正好可以解决这个问题。游戏将是元宇宙中最先落地的场景,元宇宙和游戏有一个共同点,都是为用户提供高度的真实感和沉浸式体验,我们可以拿AIGC在游戏中的应用来说明其将如何主推元宇宙发展。
AIGC技术在游戏中的应用
开发游戏周期长和成本高,通常需要花费几年时间和上千万资金,好在AIGC可以极大提高游戏的开发效率,具体来说,游戏中的剧本、人物、头像、道具、场景、配音、动作、特效、主程序未来都可以通过AIGC生成。根据AIGC在文字和图像方向的推进速度,以上应用在五到十年之内应该可以实现。
红杉资本在最近的研究报告中也指出,到2030年文本、代码、图像、视频、3D、游戏都可以通过AIGC生成,并且达到专业开发人员和设计师的水平。
图片来源:红杉资本
除了游戏之外,虚拟人也是元宇宙的一个重要落地场景,AIGC同样也会促进虚拟人赛道的发展。
虚拟人是围绕一个虚拟的人设,为其设计声音、形象、动作、性格以及活动场景,其本质和游戏相似度很高。虚拟人注重一个人在虚拟世界的表演和功能性,游戏注重多个人在虚拟世界中的交互体验。游戏是一出戏,虚拟人也是在演一出戏,戈夫曼拟剧理论中的“人生如戏”一语道破了现实世界、虚拟世界的本质。
AIGC在Web3方向的应用
AIGC听起来这么好,那跟Web3会有什么关系?最近听说Web3的基金都在看AIGC方向的项目,我想大概有这几个方向值得关注。
Gamefi开发引擎:在传统游戏中应用最广的开发引擎是Unity和Unreal,但在Web3中,游戏的开发范式也许会因AIGC带来许多变革,因此将需要一个采用AIGC技术的Gamefi开发引擎。里面的人物、场景、动画均用AIGC设计,游戏中的主程序和区块链部分也可以通过AIGC代码生成功能完成,如果这些都能实现,设计Gamefi游戏或者元宇宙场景将变得非常高效,这一套开发引擎将会具有极高的价值。目前看到RCTAI是运用人工智能为游戏行业提供完整解决方式的一个项目,但其在多大程度上采用了AIGC技术,还不得而知,不过已经有一款Gamefi游戏MirrorWorld是基于RCTAI来开发的,有兴趣的朋友可以进一步了解。
开发Gamefi游戏:退而求其次,如果一套AIGC全集成的Gamefi开发引擎还太遥远,那采用各个厂商提供的AIGC工具来开发Gamefi游戏也会极大的提高效率,比如用AIGC来生成游戏剧本、设计人物、生成动画这些都几乎都会很快实现,特别在AI生成视频和3D场景技术一旦成熟之后Gamefi游戏开发效率将会突飞猛进。
算力和数据共享:训练AIGC模型需要海量的数据和强大的算力,这导致成本非常巨大,AIGC行业龙头StabilityAI为了训练其StableDiffusion模型,在AWS中运行了包含4000多个NvidiaA100GPU的集群,运营成本高达数千万美元。如果能通过去中心化方式发行Token激励用户提供训练模型所需的数据,就可以很好的解决AIGC生成中的版权问题。另外也可以通过发行Token的方式,激励用户提供训练模型所需要的大量算力,分散算力成本,实现成本共担,利益共享。
结语
今年7月李彦宏在百度世界大会上判断,AIGC将分为三个发展阶段:“助手阶段”——“协作阶段”——“原创阶段”。“未来十年,AIGC将颠覆现有内容生产模式。可以实现以十分之一的成本,以百倍千倍的生产速度,去生成AI原创内容。”
在最近的研究报告中,红杉资本的两位合伙人也认为:“AIGC目前已经拥有更好的模型,更多的数据,更好的算力,预计杀手级应用该要出现了”。
对于以上判断,我们倾向于认同,AIGC的出现意味着创作者将从繁冗的基础性工作中解脱出来,把更多的精力放到创意表达上,这是未来内容创作行业,甚至是人类工作方式的整体趋势。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。