在元宇宙中,要实现一滴水珠映射景物的逼真倒影、雪茄燃烧时烟雾弥漫的意境特效,都需要芯片的计算能力千万倍地提升和图像处理能力千万级的扩展。作为人们对数字世界的终极想象,元宇宙这个舞台足够大、技术挑战也无限高。在通往元宇宙的道路上,芯片是坚实路基和强大底座。为此,《中国电子报》记者采访了英特尔、英伟达、高通等芯片厂商,看它们在构筑元宇宙之“芯”时如何八仙过海、各显神通。
元宇宙芯片的算力提升将是千倍级
在2021年4月的GTC线上峰会,英伟达CEO黄仁勋在招牌式的“厨房演讲”中,使用了约14秒的“虚拟厨房”和“数字替身”,引发全球媒体热议。这个以假乱真的“小魔术”,是通过3D扫描、语音驱动人物口型和动作、衣料等物理材质的还原、厨房建模、可视化预览等一系列图像处理技术来完成的。而完成这些动作的基础是GPU。
“元宇宙首先要有可视化的因素,可视化需要一个具有基于物理正确的光照和材质的仿真环境,也就是图形技术。基于RTX(英伟达的设计与可视化技术)实时光线追踪技术,我们把以前需要大量集群离线渲染才能实现的影视级别渲染画面做到了实时化,RTX技术和其对应的硬件加速单元RT Core正是为此应运而生。”英伟达专业可视化亚太区业务主管沈威在接受《中国电子报》专访时表示。
要实现《雪崩》中所描述的元宇宙中“每一滴水珠都反射出办公室窗子缩小了的倒影”的逼真感,对于GPU的光线追踪和特性还原能力,提出了前所未有的要求。“元宇宙需要对真实物理世界进行映射,这其中就存在大量的物理计算,比如空气流体烟雾粒子爆炸等特效,这背后都是CUDA(英伟达推出的并行计算平台和编程模型)通用计算模型的应用。”沈威说。
实际上,在《雪崩》所构想的元宇宙中,模拟雪茄烟雾所需的算力和“模拟整个地球的天气系统”不相上下。日本作家铃木光司的科幻小说《环界》中,允许用户通过VR头盔和数据手套接入并以指定人物的视角体验其人生的虚拟世界“环”,以包含128万台巨型计算机的超算集群作为算力底座。
英特尔公司高级副总裁兼加速计算系统和图形事业部总经理Raja Koduri相信,要如实复现《雪崩》中的元宇宙体验,现有芯片的计算性能要实现1000倍的增长。“我们必须在相同甚至更低的能耗下实现1000倍的算力增长。按照摩尔定律的增长曲线,未来5年我们能实现大约8~10倍的增长。因此算法、架构、神经网络算法等,都要在提高计算效率方面发挥作用。”Raja Koduri表示。
对于Raja Koduri提出的目标,英特尔相关负责人向《中国电子报》记者表示,这是一个从E级计算走向Z级计算的过程。
美国癌症协会成立癌症加密基金 接受8种加密货币捐赠:1月26日消息,美国癌症协会宣布和加密捐赠公司The Giving Block合作,成立癌症加密基金。该基金寻求在2021年初筹集至少100万美元,用于资助正在进行的研究项目。同时,该基金接受加密捐赠,其支持的加密币种包括BTC、BCH、ETH、LTC、ZEC、GUSD、BAT以及LINK。(Cointelegraph)[2021/1/26 13:36:14]
“从2022年的ExaFLOPS(每秒1018次浮点运算)到2028年之前实现ZettaFLOPS(每秒1021次浮点运算)——即让现有性能提升约1000倍。这条发展路径将实现架构、功率和散热、数据传输及制程工艺等领域全面提升。”该负责人指出。
具体来看,英特尔在算力提升和算力基础打造方面有三个重点。一是提供更多晶体管的核心微缩技术,二是在功率器件和内存增益领域提升半导体性能,三是探索物理学新概念,以重新定义计算。“我们概述了未来技术发展方向,即通过混合键合将封装中的互连密度提升10倍以上,晶体管微缩面积提升30%至50%,在全新的功率器件和内存技术上取得重大突破,基于物理学新概念所衍生的新技术,在未来可能会重新定义计算。”英特尔相关负责人表示。
Meta英伟达将造全球最快AI超级计算机
2021年12月,百度在元宇宙平台“希壤”召开百度AI开发者大会。基于数据传输算法调优、本地渲染引擎调优和声学特性建模,百度打造了容纳10万人的元宇宙超级会场,实现了10万人级的同屏互动、相互可见,用户还能听到实时背景音和空间音效。
今年1月,Meta宣布设计并打造了当今运行速度最快的AI超级计算机(以下简称RSC)之一,到2022年中期建成后,它将成为世界上运行速度最快的AI超级计算机。
RSC将帮助Meta的AI研究人员构建从数万亿个示例中学习的AI模型,跨数百种语言工作,无缝分析文本、图像和视频,开发新的AR工具等。Meta希望RSC能助力构建全新的AI系统。例如,为一大群使用不同语言的人员提供实时语音翻译,让他们可以无缝协作或一起玩AR游戏,最终为构建元宇宙铺平技术道路。
目前,这款AI超级计算机已经部署了760个英伟达DGX A100系统作为计算节点,共有6080个英伟达A100 GPU。在今年晚些时候的第二阶段,RSC将扩展至1.6万个GPU,提供高达500亿亿次级混合精度AI计算性能。
据了解,Meta与英伟达联合打造的大型AI研究超级计算机是迄今为止最大的英伟达DGX A100系统。该系统实现了数千个GPU集群的系统优化,可以训练包含超过1万亿个参数的AI模型,承担实时识别不法内容等工作。
要实现元宇宙级别的高度模拟和模型创建,AI是必不可少的基础设施。AI模型的识别和处理能力,能够进行精细复杂的图像处理,让创作者更有效率地生产内容。AI的算法调优能力,能提升视觉、听觉和交互体验。同时,具有自监督学习能力的AI,能够通过大量文本训练识别有害信息,守护元宇宙的安全。
“无论是无人驾驶中对物体的视觉识别,还是自然语言处理,或者是Omniverse(英伟达的3D仿真模拟和协作平台)中通过AI来驱动面部表情,其背后都利用了AI技术,AI技术使创作者能脱离大量重复性工作,更好地参与虚拟世界以及元宇宙的构建。”沈威向记者表示。
平台级芯片将是元宇宙的终极战场?
无论要进入《雪崩》的元宇宙、科幻电影《头号玩家》的虚拟游戏世界“绿洲”、《环界》的人工生命计划“环”、《三体》中模拟地外文明的游戏“三体”,一副以“头套型屏幕”“电脑目镜”“显示头盔”等各种名目出现的VR头盔都是不可或缺的“入场券”。
高通技术公司XR业务中国区负责人郭鹏在接受《中国电子报》专访时表示,不论元宇宙会发展成何种形态,人们都会需要终端来把物理空间和数字空间连接在一起,并把大家带入到虚拟现实中。
“元宇宙是一个永远存在的‘空间互联网’,能够连接真实世界和虚拟世界并打造个性化的数字体验,让人和万物都能够在其中无缝地沟通和交互。人们将通过智能手机、PC、AR/VR终端等计算终端,进入全方位反映现实生活的元宇宙。在元宇宙中,大量用户和企业能够以2D和3D形式探索、创建并参与各种各样的日常体验和社区及经济活动。”郭鹏指出。
在很长一段时间里,XR(VR/AR/MR)终端都使用手机SoC作为主力处理器。随着XR设备的规格持续优化,对于视野、分辨率、刷新率、用户感知、环境感知、定位技术的需求也不断提升,更符合XR性能和功耗需求的专用处理器被提上日程。
2018年5月,高通推出骁龙XR1平台,该平台是全球首款XR专用平台。2019年12月,高通公司推出全球首个5G XR平台——骁龙XR2平台。骁龙XR2支持5G连接、每只眼睛90fps 3K×3K的分辨率以及七路并行摄像头,且具备计算机视觉专用处理器。目前,已有超过50款搭载骁龙平台的VR和AR终端发布。2020年5月,海思发布XR芯片平台,推出首款可支持8K解码能力、集成GPU、NPU的XR芯片,支持单眼42.7PDD(每度像素数)。
在芯片平台的基础上,构建元宇宙体验还需要渲染引擎、内容生态提供商、互联网公司、社交和娱乐企业等产业链各个环节的协同作战。郭鹏表示,高通是整个产业链中底层技术的提供商,主要从四个层面支撑元宇宙的构建和发展。首先,是为厂商提供能够解决XR设备技术难题的专用芯片平台;其次,打造基于XR专用平台的参考设计,助力合作伙伴加快终端的规模化商用;再次,针对XR领域的技术挑战,提供软件、空间计算算法和架构;最后,发起一系列硬件和软件生态系统计划,减轻合作伙伴在产品商用化过程中的负担。
构建芯片性能之后,如何有效交付,以“黑盒”的方式让软件开发者、程序员和创作者便捷使用,是不逊于芯片制造本身的头等大事。为此,英特尔、英伟达、高通都面向元宇宙打造了丰富的芯片平台,让开发者更高效地调用芯片性能。
在英特尔的技术构想中,赋能元宇宙的技术基石可概括为三个层次。一是元智能层,旨在提供统一的编程模型以及开放的软件开发工具和软件开发库,以便开发者能够更轻松地部署复杂的应用程序。二是元操作层,聚焦于向用户交付超越本地的可用算力。三是元计算层,为实现元宇宙体验提供其所需的原始动力。
目前,英特尔已经在计算层面形成了XPU异构计算战略,包括CPU、GPU、FPGA、AI芯片和其他加速器,将工作负载与适合的架构匹配,以满足日益增长的算力需求。在异构平台上,硬件性能需要软件来释放,英特尔基于oneAPI提供了开放、基于标准的编程环境,打破了封闭式编程模型的限制,并支持多种平台和架构的编程需要。
Omniverse平台被英伟达定义为“工程师的元宇宙”,将实时光线追踪等图形能力、AI和计算(CUDA)三大要素打包交付。沈威表示,Omniverse 已成为构建元宇宙或虚拟世界的技术解决方案,将助力形成一套以Omniverse为平台,并拥有强劲算力支撑和先进硬件基础的元宇宙体系。“在借助Omniverse构建的未来世界中,所有部分都将由AI计算系统驱动并进行处理,该系统能够处理它所需要的信息,例如视觉信息、传感器信息、物理信息和自动化智能。”沈威说。
而高通也在为元宇宙所需的空间计算提供两个层面的芯片和软件算法,第一个层面是“我在哪里,我在干什么”,也就是用户头部自由度定位、手柄定位以及手势、眼球、表情和腿的定位等身体感知的基础技术。第二个层面是空间定位,即对环境的感知。基于上述技术支撑,高通能更高效地支持开发者把虚拟物体放在现实世界中,与现实世界融合。2021年11月,高通还推出了头戴式AR开发套件骁龙Spaces XR开发者平台,为开发者提供实现创意的工具,使头戴式AR实现更多可能。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。