元宇宙:Web3 驱动的分布式计算网络如何成为元宇宙重要基建?

原文标题:《A&T 前瞻: 为什么 Web3 驱动的分布式算力网络是元宇宙的基础设施?》

撰文:Rosie,A&T Capital 高级投资经理

根据网上对元宇宙的定义,元宇宙是利用科技手段 (AR/VR/MR/XR 等 ) 在与现实世界映射或 3D 虚拟世界里进行链接和创造。笔者建议,把元宇宙看作与真实世界平行的空间,通过不同的技术手段,可以建立趋近于无数个平行的空间。AR/VR/MR/XR 产业带来的不仅仅是对硬件交互的颠覆,也给人类对空间的理解和在空间的使用上带来了新的可能。

随着明年苹果推出名为 Reality 的 MR 设备,Meta 不断迭代其 Oculus 的 VR,国内的 Rokid、光粒、Nreal 等 AR 设备厂商也在纷纷出货,我们已经站在元宇宙爆发的前夕。本文基于对元宇宙硬件发展的理解,推导元宇宙应用大规模爆发时对计算和传输的要求,论证为何 Web3 和分布式算力将成为元宇宙时代的计算基础设施。

以内容作为驱动整个生态发展的底层逻辑,内容与计算和存储咨询交互,通过传输,内容到达 AR/VR/MR/XR 硬件设备。用户通过使用终端硬件进入元宇宙。本篇文章讲 AR/VR 的发展,重心主要落在计算和传输,存储是另外一个大话题,将在后续文章里单独进行分析。

AR/VR 设备是用户进入元宇宙的硬件入口。

AR

AR 全称 Augmented Reality/ 增强现实,即利用计算机模拟将虚拟物体叠加在真实环境里,使他们在同一画面和空间存在。

AR 的技术趋势为光波导 +Micro LED。

Web3内容交付平台Mawari完成650万美元融资:金色财经报道,Web3内容交付平台Mawari完成650万美元融资,Blockchange Ventures与Decasonic领投,Abies Ventures、Accord Ventures、Anfield、Outlier Ventures、Primal Capital等参投。

Mawari是基于Web3原则设计的去中心化3D和XR内容交付平台。它希望通过机器学习、数据压缩和区块链等技术来实现3D元宇宙,从而减轻未来互联网的处理和网络需求。(venturebeat)[2023/2/9 11:55:26]

VR

VR 全称 Virtual Reality/ 虚拟现实,即利用计算机模拟生成 3D 虚拟世界,向提供使用者近似真实的感官模拟。

VR 的技术趋势为折叠光路 +Micro OLED。

虽然 AR 和 VR 的具体技术路线有差异,但是总体的技术框架相似。两者都是需要通过选择光源和成像方案,将图像呈现在显示屏幕上,给用户从视觉上制造沉浸感。

本篇文章对沉浸感的定义,是人对计算机系统创造和显示出来的虚拟环境的感受无限趋近于人类对真实自然环境的感受。为了实现最高沉浸感,也就是最趋于人对真实世界感知的感受,对 AR/VR 设备的显示要求是类视网膜的要求。AR/VR 设备的显示屏有 2 个重要参数直接影响用户的沉浸感:

分辨率 /Resolution 这里先提一个单位,叫做 PPD(Pixel Per Degree),它决定显示的清晰程度。与传统屏幕不同,AR/VR 等近眼设备采用 PPD 衡量屏幕的清晰程度,PPD 代表视野中每一度视场角的像素密度。类视网膜的屏幕需要达到 60PPD。另外一个需要理解的是 FOV(Field of View)/ 视场角,也可以理解为视野。假设单眼横向 FOV 为 110°,纵向约 120°:2*(110 x 60) x (120 x 60) 按照分辨率定义,也就是一块差不多 13k 的屏幕才能满足类视网膜的显示需求。

Argent X宣布将推出Argent Web Wallet:2月8日消息,基于StarkNet的浏览器插件钱包Argent X宣布将推出Argent Web Wallet,可通过创建仅包含电子邮件地址的钱包来登录StarkNet。[2023/2/8 11:55:17]

刷新率 /Rate of Refresh 可以用 fps(frame per second) 理解,也就是每秒里面有多少帧图像 ( 一帧就是一张图像 )。见下图,当 fps 低的时候,人眼看到的物品的移动是不连续的。随着帧数增加,人眼感受到的是物品在连续的移动。

引用:《Frame Rate: A Beginner’s Guide for Live Streaming》

当 fps 低的时候,人会因为画面的不连续产生晕眩感。所以通过提高 fps 能降低使用 AR/VR 硬件感受到的晕眩感。当达到 60fps 的时候,基本上不会产生晕眩;当达到 144 fps 的时候,就能达到人眼能察觉的最高极限,也就达到了人类感知真实环境的效果。

IDC 公布 2021 年全球 AR/VR 出货量达到 1,120 万台,同比增长 92.1%。如果与智能手机的出货量做类比 ( 见下图 ),我们正所处在 AR/VR 时代爆发的前夕。

随着 AR/VR 总出货量的增加,越来越多的用户将通过 AR/VR 设备进入元宇宙,同时使用 AR/VR 设备的在线人数会随之增加。

沉浸感是通过使用计算机生成的 3D 虚拟世界或是通过图像生成三维重建世界,投射在 2D 屏幕上让人感受到距离、光影、色差而得到的。3D 虚拟世界是使用专业的建模软件 ( 如 unity) 生成的,而 3D 世界 ( 包括三维重建的世界 ) 及里面的模型如何成像在 2D 屏幕上是由渲染决定的。渲染是元宇宙世界里使用最多算力的计算工作类型。渲染算法通过一系列参数 ( 例如光照角度、强度等 ) 计算出模型该有的阴影、颜色灰度等,生产出一张张让人眼看上去与真实世界非常相近的图片。用户在 AR/VR 设备里看到的其实是渲染好的图片流。现在做渲染的方式大类有三种 ( 见下 ):

CES 2023将引入元宇宙和Web3专场:金色财经报道,CES 销售高级副总裁 Kinsey Fabrizio在最新一期CES Tech Talk采访中透露,国际消费类电子产品展览会2023将会引入元宇宙和Web3专场,并且会在会议中心大厅拥有专属展位。此外,CES 2023还将推出“元宇宙&游戏”和“创作者经济和NFT”频道,旨在今后10年元宇宙构建、以及AI和XR混合现实技术发展的未来。(福布斯)[2022/12/31 22:18:30]

本地主机:也就是应用程序跑在 AR/VR 设备里,直接使用 AR/VR 设备的硬件进行渲染,渲染完成后直接推图片流到 AR/VR 设备里的显示屏。本地主机渲染架构有几个大的痛点:

AR/VR 应用程序包大,导致在主机端无法同时下载和存储多个应用;

AR/VR 主机厂的因为需要控制设备成本价格,不会选择在主机上安装很多计算资源,因此,AR/VR 设备不能满足对渲染要求高的场景的应用程序,限制了能在 AR/VR 设备上运行的应用程序数量和类型;

AR/VR 设备与人体接触,需要维持其运行的温度在人体能接受的区间,如果做太多本地计算则会使其温度上升,让热管理成为一个问题;

由于是佩戴型设备,如果在本地做太多计算,用电速度则会加快,导致用户需要频繁充电,降低了用户的佩戴时间。

基于上述的几个痛点,AR/VR 内容提供商和主机厂普遍建议不要在本地做太多计算。

串流:也就是应用程序跑在用户的电脑里,使用电脑的硬件进行渲染,渲染完成后直接推图片流到 AR/VR 设备里的显示屏。串流架构最大的痛点在于渲染速度限制于用户的硬件参数。非常少量的用户拥有能做到 13k/img/2022104143408/5.jpg">

2021 年全球 GPU 总出货量加保有量大约是 4 亿颗,预计到 2025 年年底 GPU 总出货量加保有量大约是~15 亿颗。假设云厂商拥有全市场 30% 的算力,按照同比例,云厂于 2021 年拥有 1.2 亿颗 GPU,于 2025 年拥有 4.5 亿颗 GPU。

Web3项目RELI3F将捐赠185 ETH支持乌克兰人民:2月28日消息,RELI3F发推表示,今天将捐赠185 ETH来支持乌克兰人民。RELI3F表示,185 ETH(约48.5万美元)大约是RELI3F首次销售期间筹集到371 ETH的一半。由于时间紧迫,RELI3F决定将一半发送给支持乌克兰的三个经过审查和运营的加密货币基金。据悉,RELI3F是由Web3社区发起的一项人道主义援助计划,其主要销售的100%将用于乌克兰的救援工作。[2022/2/28 10:20:45]

根据分辨率和 fps 的要求,算出每渲染一张照片每秒同时使用多少颗 GPU;再从总 GPU 数量,算出支持全球同时在线的 AR/VR 设备数量。可以看到,当渲染计算强度是类人眼时,也就是渲染算力需求是 13k/img/2022104143408/7.jpg">

引用《3D 可视化入门基础:看渲染管线如何在 GPU 运作》

Application 阶段:在 CPU 端执行,通常用于准备绘制所需的几何数据、Uniform 数据等,并发送给 GPU 端;

Geometry Processing 阶段:又可以拆分为顶点着色、细分着色、几何着色、Stream Out( 用于将 Geometry Processing 阶段处理的结果写回到 Buffer 中 )、裁剪 ( 将超过 NDC 的坐标裁剪掉并生成新的顶点 )、以及屏幕映射 (Screen Mapping,将 NDC 坐标映射到屏幕坐标 );

Rasterization( 光栅化 ) 阶段:将上一阶段处理的图 ( 点,线,三角形 ) 转变为一个个离散的像素块;

Pixel Processing 阶段:将光栅化生成的像素进行着色 (Pixel Shading),之后将计算好的像素根据一定规则写入到 frame buffer 或者开发者指定的 buffer 中。

在这些步骤里,有几步是可以被并行处理的,例如像素着色、顶点变换、图元组装或者通用计算等。这些可以被并行处理的计算可以被发送到不同的节点上进行工作,利用分布式节点的算力,成为元宇宙的计算基础设施。

在上文里提到,当渲染强度是类人眼时,也就是渲染算力需求是 13k/img/2022104143408/8.jpg">

云厂商的 GPU 资源还是会被充分利用,但是作为 general compute resource providers,GPU 资源除了被渲染使用,还有很大一部分会被 AI 相关的领域所使用,所以需要调动更多的计算资源;

通过激励模式,让更多的节点加入算力网络。通过评估网络里不同节点的算力的强度,分发相应的渲染工作;

AR/VR 端最终会收到多个节点推来的照片流。AR/VR 端只需要对这些照片流进行排序即可在显示屏上显示给用户。

传输

理论上来说,电信号的传播速度是光速,由于物理距离带来的数据传输延迟高的原因在于这些信号在传输过程中会有损耗,因此,长距离传输需要经过「中转站」。这些中转站在收到数据后需要把这个数据的信号加强,还原成刚发出的信号。因为这个过程需要时间,所以总的来说是地理距离越远,延迟越高。

如上图所示,当用户端 1 在离云厂商的机房物理距离远时,选择使用就近的分布式网络节点完成渲染任务;

用户端 2 在离云厂商的机房物理距离近时且离某些分布式节点近时,选择混合渲染方案,即中心 + 分布式方案;

AR/VR 端会接收多个节点推来的图片流,完成排序后,显示在屏幕上。

Tokenomics + PoPW

使用 tokenomics 激励全球的网络用户加入算力网络,PoPW 的共识协议确保数据的正确性和完整性。

Tokenomics 用于基础设施网络有两个好处:

能够在全球范围内快速扩展网络,更好的响应全球的渲染工作的需求;

大型物理网络需要资金投入,不管是前期购入硬件成本还是后期的运维和维护成本。通过使用 tokenomics 构建和维护网络并将收益全部分配给供应方是一种更具成本效益的解决方案。

分布式算力市场 Mapping

笔者认为,短期来看,Web3 驱动的分布式算力的实现难度高,不管对于渲染模型、降低使用的 GPU 门槛、还是传输,还需要时间发展。但是中长期看,这个是一个必然的结果和选择,将会支持元宇宙大规模爆发,成为元宇宙里算力的重要基建。

A&T Capital

个人专栏

阅读更多

PANews

Bress

Odaily星球日报

区块律动BlockBeats

金色早8点

潘达看Web3

区块链头条

DeFi之道

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

地球链

比特币交易WEB:日本“失落”Web3

文/尹宁出品/陀螺研究院GDP位于全球第三的日本,近年来并不好过,卷土重来的新冠流行、难以抑制的债务危机以及日益加剧的老龄化现状都将本土经济推上了风口浪尖.

[0:0ms0-1:5ms