3DCAT 二维码

扫一扫 立即咨询

行业资讯即时渲染

【实时渲染】什么是3D实时渲染?unity实时渲染案例
如果你刚开始在Unity中进行3D开发,你可能还不太清楚什么是渲染。对于偶尔使用3D图形的人或刚开始使用3D进行生产制作的人,可能会发现渲染并不像3D图形的其他方面那么容易。 好在有很多关于在Unity中设置渲染的文档,帮助你更好的实现项目。 什么是3D实时渲染,它是如何工作的? 3D渲染是根据计算机上存储的三维数据生成图像的过程。与摄影一样,它也被认为是一个创造性的过程,因为它利用光并最终产生图像。 通过3D渲染可以将3D线框模型转换为具有3D效果的2D图像。单帧图像的渲染时长需要几秒到几天时间不等。3D渲染有两种主要类型,它们之间的主要区别是图像的计算和处理速度: 实时渲染和脱机渲染或预渲染。 实时渲染在视频游戏或交互式图形应用最常见,其中3D图像高速计算,使得玩家觉得复杂变换的场景是他与游戏之间的 实时交互而产生的。 这就是交互性和速度在 实时渲染过程中起重要作用的原因。例如,如果要在场景中移动角色,则需要确保在绘制下一帧之前更新了角色的移动,以便以人眼可以感知为自然移动的速度来显示它。 主要目标是在可接受的最小渲染速度(通常为24帧/秒)下实现尽可能高的写实度。这是人眼创造运动幻觉所需要的最低限度。 即使渲染基于大量复杂的计算,现代软件也可以提供一些相当简单的参数供你理解和使用。 渲染引擎通常包含在现代3D游戏引擎中,并且可以制作非常精彩的图形。 Unity实时渲染 在Unity中创建交互式项目时,你可以制作从白天到夜晚,从日光浴场到光线昏暗的街道和阴暗的隧道,营造一种令人陶醉的氛围吸引你的观众。 无论是要开发用于手机还是主机游戏的2D或3D游戏,Unity的脚本化渲染管线(SRP)都可以让你建立精美的图像并针对特定硬件进行优化。 例如,有个高清晰度渲染管道(HRDP) ,其针对高端PC和游戏机,且有轻量级渲染管道(LWRP)它的目标移动。 3D和2D实时渲染 如果你尚未决定要在Unity,2D或3D中进行哪种类型的项目,请记住你具有完全的自由度和专业的工具集来创建任何类型的2D或3D游戏,甚至可以将两者的元素混合以创建2.5 D互动体验。 在Unity中,你可以使用Sprite Renderer在2D或3D场景中渲染Sprite类型的图像。该组件使你可以将图像显示为Sprites,以用于2D或3D场景。 Unity使用排序图层的概念来允许你将子画面分为重叠优先级的组,还使用图层中的顺序来将一致的优先级应用于同一图层中的子画面。 实时渲染示例 《死者之书》 《死者之书》演示了使用Unity 2018年新的可脚本渲染管道(Scriptable Render Pipeline)时的可能性,该管道提供了 Unity渲染体系结构增强的可自定义性,将更多控制权交给开发人员。 点击 阅读有关死者之书的更多信息

2020-04-08

分析电影业: 新兴技术和工作流程 (下)
BY:Ellie Harisova 这话由Black Amber Digital的首席执行官兼总监 Erasmus Brosdau分享了他制作高质量写实电影和指导的经验第二部分。 动态捕捉:优点和缺点 想要获得自然逼真的动作,运动捕捉至关重要。在动作捕捉(Motion Capture)的工作中,一天大概可以获得10分钟的多个角色动画,这是一个非常高的速度,尤其是在录制面部动画的情况下。 我在德国法兰克福的Metricminds的朋友有一只很强大的团队,使用最先进的相机为您提供每种可能的方案,处录制非常大量的动作捕捉(Motion Capture) 。我们需要演员可以与不同道具交互,这些道具可以是他们的武器,坡道甚至墙。 动作捕捉(Motion Capture)的其中一个优点是,如果与人类演员打交道,那么就完全不需要动画师啦手动调整动画。演员的表演后,我们会立即观看到动画的最终感觉,可以有机会查看安歇细微的地方或者改进肢体语言。作为导演,我可以让演员观看到我的表演,帮助他们加深理解。 动作捕捉(Motion Capture)的另一个巨大优点是迭代过程,我如果听到演员为自己的角色提出新的想法时,可以迅速的改进,演员们会对自己的角色有新的认知。拍摄过程中的每个人都可以使镜头尽可能地最佳。 另一方面,缺点是技术设置。有时候反射镜会掉下来,或者演员会因为穿着的衣服受到限制。比如拍摄面部动作捕捉时,演员会戴上带有一跟长棍棒的头盔,并贴上GoPro来拍摄他们的脸。如果两个演员靠在一起,这个装备就会阻挡他们的视线。 虽然动作捕捉(Motion Capture)可以快速提供许多动画,但得到的所有数据都需要清洁和细化,这还是需要动画师的帮助。 特别是对角色交互的道具上的更改也需要动画师手动调整。而无法实现的负责动画,这就需要动画师来完成大部分工作。 得到100%真实感是否可能? 我们生活在一个技术日新月异的时代,虽然现在的技术很擅长复制数字人类,但不是完美的。尤其对 实时渲染而言,要制作出绝对真实的人仍然非常困难。 大量的工作和金钱可以让角色达到90%逼真,角色看起来越真实,观众就越容易跟它建立联系。但是,一旦达到92%的水平,这种接受度就会大大降低,因为人们会因角色看起来不完全真实而感到不安,角色的细微缺陷使它看起来很怪异。 让角色在静止帧中看起来像真实照片要容易很多,特别是黑白静止帧中没有颜色就无法显示皮肤的半透明性和其他细微差别。一旦角色说话或表现出情感,各种各样的肌肉就会在皮肤下面移动,在这个过程中还可以看到皮肤变形,毛孔和皱纹。所有这些微妙的变化的都需要大量处理能力来实现。 有趣的是,计算机在制作面部动画方面比3D艺术家团队要厉害,人工智能的深度学习很有可能会接管未来面部动画产品的很大一部分,并能简化过程和降低成本。 实时渲染和脱机渲染工作流程之间的差异 当我对使用虚幻引擎拍摄电影感兴趣的客户交谈时,他们会问该软件是否能够渲染所有渲染通道,例如漫反射,镜面反射,光泽度等。当人们看到我的电影成品时,通常他们会认为UE4可以直接替代其 实时渲染引擎(例如Arnold或V-Ray),但是这两种工作流程是完全不同。 离线渲染和实时渲染这两个行业我都从事过,了解电影制作人员一开始很难充分理解游戏引擎的工作过程。虽然两个领域在屏幕上生成的2D图像看上去都非常相同,但技术和工作流程都是不同的。 实时渲染最大的优点是直接显示最终图像,而离线渲染要等到合成时才可以看到最终图像预览。而脱机渲染也可以产生游戏引擎无法达到的绝对精确和物理上精确的质量。 离线渲染技术基本上是完整的,而实时渲染几乎每年都有改变者,他们为获得更真实的结果开辟道路。尽管实时渲染的电影技术还存在问题,但这绝对是未来所有作品的出路。 人工智能和深度学习:未来前景 人工智能系统肯定会成为实时渲染和离线渲染的最大改变者。我们只是见证了第一步,但接下来人工智能或深度学习系统将像其他工具一样快速的发展下去。 未来很多东西都可以自动化:创建UV,烘焙资产,创建污垢和损坏,增加资产变化等, AI都可以轻而易举的做到。AI甚至可以改善整个动画,身体动作和面部动画有可能完全自动化。渲染过程可能会由输出图像闪电般快速的AI系统取代,基于AI的渲染引擎不需要渲染图像,它只会“知道”最终图像的外观,并可以 实时操作所有内容。也许人工智能会改变整个行业。 不利的一面是,许多工作岗位将会被取代掉,大的团队会被规模更小的团队和更低的成本替代。这些成果将使我们的生活变得更加轻松,所有繁琐的事情都可以通过一键式解决方案实现自动化。

2020-03-17

分析电影业: 新兴技术和工作流程 (上)
by:Ellie Harisova Black Amber Digital首席执行官兼总监 Erasmus Brosdau分享了他制作高质量写实电影和指导的经验,并介绍了制作使用的各种技术,例如:运动捕捉, 实时渲染和脱机渲染,深度学习系统。 行业内景: 摄影和动画紧密相连。作为导演,我需要了解所有的角色,场景中的物体和所有姿势和动画,以便我根据想要的方向选择最佳构图。 在以前,尤其是指导动作捕捉(Motion Capture)的拍摄时,我们所有人的工作都有一些盲目,因为很多人的工作都没有机会看到最终效果。虽然动画工具本身还是有些相似,但是现在我们在诸如虚幻引擎4之类的 实时云渲染的引擎中的使用方式已经大大的改善。 在动作捕捉(Motion Capture)拍摄期间,我可以向演员展示非常好的预期可视化效果,让他们对我要寻找的内容有所了解。 很多工具,像动画工具(如Mixamo)就可以快速预览整个场景,这样,我从整体上了解节奏,动态和摄影,并按照我的要求简化动画,考虑摄影构想如何实现,或者是否需要添加更多裁切,更改摄影机角度等。 在其他动作捕捉(Motion Capture)拍摄期间,甚至可以将3D角色带到场景中进行预览,演员可以在大屏幕上观看到他们的3D形象。并且该形象具有正确的3D环境中,用这种观察场景和气氛要容易的多。 过去的几年中,动画和 游戏实时渲染都在朝着可以是实时查看最终效果的目标迈进。使用动作捕捉(Motion Capture)或诸如Live Link之类的工具,就可以实时的选取最佳的构图和随时调整动画。还能防止团队出现例如最终角色伸出框架或其他问题。 技术的选择? 当与CG行业中的艺术家,经理,制片人或投资者等不同的人交谈时,许多人都热衷将最新技术用于他们之后的项目,每个人都想成为第一个在生产中使用功能X或技术Y的人,成为领域的先驱者对团队来说算是件很棒的事,但是观众只会关注最终的效果。 制作CG电影时,无论是实时渲染还是用Arnold渲染,观众不会在意,有趣的故事和角色才是吸引观众的关键。电影如果拥有非常惊人的CGI但剧情仍然糟糕时,观众仍然不会喜欢它。所有的VFX都只是为了帮助叙述故事,脚本和发展,如果将它们和电影融合在一起,就可以为观众带来非凡的体验。 尤其是在今天这样的时代,当各种流媒体平台对内容的需求异常高涨,每个工作室都需要找出最佳的渠道应对CG任务的巨大工作量。并没有真正的对与错,每个项目可能都需要不同的东西。在这方面,很高兴看到许多软件提供商每年提供的可以大大加快生产速度的新工具。尤其是由很多小公司生产的数量惊人的创新工具,而大型公司往往只是为现有工具引入新的版本和提高价格。这对未来项目要使用哪些程序和投资都产生了很多影响。 Blender和Unreal Engine(虚幻引擎)是主要的工具之一,Unreal Engine(虚幻引擎)通过新技术和Raytracing之类的工具不断的更新,而Blender则是推出了新的 实时渲染引擎和用于3D制作的工具。对于工作室来说,测试它们未来的发展潜力非常重要。 面部动画 面部动画无疑是业内最复杂,最困难的任务之一。如果您一直在寻找如何制作逼真的动画,最好的方法就是捕捉演员的表演并将其转移到CG角色面部上。而对于卡通作品,手动的关键帧动画依然是必不可少的。 我的项目都是偏真实感的,所以我一直在寻找如何能达到最佳质量。我曾制作了自己的面部设备,并与一位熟练的面部动画艺术家合作,使用混合变形建模和面部装备记录演员的GoPro记录并在Dynamixyz(专门处理这些任务的软件解决方案)中对其进行处理,然后手动的对捕捉进行微调,这为面部动的捕捉提供了一个很好的起点。 所有的项目都是实时渲染的,与离线渲染的作品相比,面部装配设置以每秒60帧的速度运行。在虚幻引擎中,脸部使用了非常复杂的皮肤材质,如果触发了指定的混合形状,该材质就会融合到其他法线贴图中。重要的是,所有的角色都具有完全相同的拓扑和UV布局,所以角色的很多工作都可以相互使用。

2020-03-16

【UE4实时渲染】漫画家揭秘如何用UE4制作漫画的实时背景
当提到漫画背后的创作过程时,你大概不会立刻想到 实时渲染引擎技术。然而,有一天著名漫画家Inio Asano灵感一闪:“如果用虚幻引擎来创作漫画会怎么样呢?” 经过努力的实验,他成功研究出了一项创新的技术,用于为他的漫画创造引人注目的,大气的背景。目前,他正在使用 UE4作为他的漫画系列《Dead Dead Demon's Dededede Destruction(死神的破坏)》的创作工具之一,该系列正在漫画杂志《Big Comic Spirits》上连载。 Asano解释说:“每当我想要创建一个真实的背景,我都会以一张照片为基础进行修改,然后再画漫画插图。但在做了10多年之后,我开始觉得这项技术有点过时了。我也意识到,我只是在利用自己拍摄照片的优势而已。” 他开始希望自己能有更多的创作自由,于是他开始考虑使用3D模型的可能性。他说:“虽然我知道UE4很多年了,但我一直认为它只是一个游戏引擎。作为一名漫画家,一开始我并不认为它和我的作品有太多交集。后来有一天,我想看看 虚幻引擎,我发现它是免费的!” 使用3D可视化的实验漫画 由于没有进入的门槛,Asano决定下载引擎并尝试使用。那是他第一次体验到 实时渲染的威力。他回忆道:“在3D空间中移动并调整灯光和颜色很容易。这些影子也很逼真,比我用手画的还要逼真。然后我会参考这些图,做一些手工调整。” 利用UE4 Marketplace中提供的资源,Asano在引擎中创建了整个故事的背景。他说:“我发现建筑相对容易画,我最努力画的还是植物和野生动物。有很多树叶资产作为建筑模块可供出售,这让我很容易地就创建出一个森林,只需点击几下鼠标。我意识到我可以在我创造的这些环境中画一个故事。实际上,当我使用虚幻引擎时,我降低了 渲染的质量,使图像更接近于手绘的漫画艺术。 实时技术开辟了新的创意途径 Asano对 实时渲染技术的探索越深入,越能找到更多的方法来提高他的艺术水平——有些是他以前从未考虑过的。他说:“有了虚幻引擎,我开始尝试那些过去我认为不值得去做的事情。如果一个场景缺了什么,我就会买一些资产放在屏幕上。这样,我就可以在相对较短的时间内按照我想要的方式设置环境。” Asano发现 3D模型的另一个优点是,与只能使用一次的漫画插图不同,3D模型可以重复使用或从不同的角度绘制。这意味着他将获得更大的价值,并有机会在未来的绘画中重用资产。 Asano的 实时云渲染技术之旅开启了一个充满创意可能性的世界,产生了一些令人兴奋的新想法。他解释说:“我想通过在UE4建造一个完整的城市,然后再画一部漫画来描述城市中发生的故事,这样彻底改变了我的创作过程。” 经验丰富的艺术家是这类实验的强烈倡导者,我们相信会有更多的艺术家可以受益于探索 实时3d可视化。“在过去的10年里,任何人都可以使用UE4来创作艺术品,”Asano说。“既然这些工具是免费提供的,我认为每个人都应该接受它们,让创意变得比以往任何时候都更容易实现。”

2020-03-04

【实时3D渲染】实时Deepfake技术:人人秒变威尔史密斯
Hao Li和Pinscreen的团队最近展示了 实时交互式的人脸替换功能,实现了当人走到屏幕前,就能在实时的“Deepfake”中换脸。该装置展示于瑞士的世界经济论坛(WEF),世界经济论坛在瑞士阿尔卑斯山小镇达沃斯举行。它成立于1971年,是一个非政府组织(NGO)。WEF的使命是“致力于通过商业,政治,学术和其他领域的社会领袖的共同参与,塑造全球、区域和行业的议程。” will.i.am参加了在瑞士达沃斯-克洛斯特斯举办的WEF 2020主展览。在这里,他与威尔·史密斯(Will Smith)的脸进行了实时“交接”。Hao Li就站在他旁边。世界经济论坛/ Pascal Bitz版权所有 视效公司,乃至整个技术界都对数字面部替换技术有极大的兴趣。Pinscreen开发这种逼真的实时人脸合成技术的主要目的是构建下一代的虚拟助手以及虚拟人,这样他们看起来会极为逼真,同时更高效。 Hao Li是Pinscreen的创始人和首席执行官,也是南加州大学(USC)的计算机科学教授,同时还是南加州大学创意技术研究所视觉与图形实验室的负责人。麻省理工学院技术评论杂志将他评为“世界最佳假脸创造者”(“World Best Deepfaker”)。 Pinscreen的研究涉及新颖的深度学习,数据驱动和几何处理算法的开发。Hao Li本人以其在虚拟人创作,面部动画,头发数字化,动态形状处理以及最近的防止恶意Deepfake换脸扩散方面所做的开创性工作而闻名。Pinscreen开创了检测Deepfake换脸并通知用户的先河。Facebook和Google也活跃于这一研究领域。Google总裁Sundar Pichai最近发表了一篇文章:“检测Deepfake是我们面临的最重要的挑战之一”,而Google一直在发布音频和视频数据集以帮助进行合成视频检测。Pinscreen的研究已经能取保94%的检测准确度,但是只有识别公众人物的方面具有如此高的准确度,Pinscreen还有大批的视频片段素材需要学习训练。 1. Hao Li恭喜您参与本次世界经济论坛,是什么契机让您到此参展? HL:自2018年以来,我一直都在参加世界经济论坛。他们启动了一个名为WEF Transformation Maps的内部知识平台,并与我联系,希望我帮助他们撰写有关AR, VR及其社会影响的文章,然后他们邀请我成为全球未来理事会的成员,该理事会确定了达沃斯年度会议的议程。他们了解了我在数字人和Deepfake方面的工作,并邀请我的初创公司Pinscreen参加了在中国大连举行的New Champion年会(夏季达沃斯盛会),看看大家对这个最新技术的反应。最终,我的装置成为大连的亮点之一,他们对后续的开发有浓厚的兴趣,这些后续的装置展示将在达沃斯2020年进行。我们觉得让人们意识到媒介操纵的最好方式,就是让这些世界各界的前沿者直观的感受科技发展速度之快。 2. 您在欧洲都做了哪些展示? HL:我们展示了一种实时的Deepfake换脸技术,用户可以观察屏幕这块虚拟的镜子,并与多个名人和公众人物(例如米歇尔·奥巴马,威尔·史密斯,莱昂纳多·迪卡普里奥等)进行换脸。 在互联网上进行的Deepfake软件需要大量的数据收集,并且针对替换的名人面部效果进行几天的训练才能获得高质量的效果。我们的解决方案可立即生效,并且无需任何训练即达到较好的换脸效果,并且这个换脸的过程都是 实时渲染的。 3. 这是您的paGAN研究的扩展还是一项新技术? HL:这是一项新技术,它与Deepfake更加相似,因为它对源面部(名人)使用了大量的训练数据,但是它使用了paGAN来避免为每个新面孔训练模型。 4. 就性能而言,Pinscreen几年前就进行了面部跟踪。这一次是Pinscreen技术与更快的硬件或新的ML方法的结合吗? HL:我们确实有一种新的ML方法,但是是在最先进的GPU上也有很多底层的优化,以实现实时性能的提高,达到所需的分辨率。 5. 使用的摄像头是标准RGB摄像机还是RGBD(深度摄像机)? HL: 我们使用标准的罗技(Logitech)网络摄像头,它只有RGB。 6. 对于这种基于图像的机器学习,GANs似乎有非常紧密相关。GANs的处理速度有多快? HL: 我们仅在pipeline的某些部分使用GANs。所有处理都必须非常快,这样我们才能以25 fps的速度完成所有处理。 7. 显然,实时的项目在能力方面遇到非常多挑战,主要问题是对于目标缺少训练数据。 HL: 实现实时性的难题在于以下方面: - 处理大量数据的能力以及使用更深层网络训练更好的模型的能力 - 生成高分辨率帧的能力 - 并行/安排任务的能力 对于每个来源面孔(名人),我们都使用了数以万计的帧。 8. 如果您可以实时执行此操作,是否意味着如果流程不是实时的,而是在传统的项目处理周期,就可以有更加高质量的解决方案? HL:当然,我们的最新demo是使用生产级的pipeline制作的高保真Deepfake视频,该pipeline不是实时的,但可以产生更高的分辨率和更自然的结果。 我们为一个团队制作了一个新的Deepfake视频,希望能很快的和大家见面。得出的结果非常出色,分辨率很高(但是处理速度更慢),而且我肉眼看不到任何缺陷,运行非常顺畅。 9. 您的系统可以应付很多头部的旋转动作吗? HL: 是的,从我们与Globo合作的视频结果中可以看出,它可以处理较大的头部旋转动作。 10. 对于WEF上的演示来说,照明对前来测试的用户有多重要? HL: 我们的系统自然可以应对非常具有挑战性的照明条件。您可以使用各种颜色的灯泡,并观察换面反映出照明条件的变化。 11. 如果是戴着眼镜的用户会怎样? HL: 薄镜框的眼镜没有影响,但是用厚框镜的眼镜可能是个问题,因为我们的培训内容不包括戴眼镜的对象。 12. 您能讨论一下您的头发模拟研究的现状吗?我们知道Pinscreen在这一领域也进行了广泛的研究? HL: 我们正在谈论实现整个头部的替换,我相信发型合成无疑是一种可能性,也是未来一个有趣的研究方向。我的USC实验室过去已经进行过使用GANs方法渲染逼真的发束的研究(译者注: 3dcat实时渲染支持能在windows渲染的几乎所有引擎),而我们在将面部毛发创作上也有一些新的研究。头发可以跨越多种样式和形状,并且与面部的相互作用非常复杂。需要研究更复杂的条件。 13. 此装置的体验反响怎么样? HL: 我们的装置是本次活动的亮点之一,有成千上万的参与者在此体验,其中包括很多名人和世界各领域的领袖。 许多人对Deepfake型视频操作的潜在危险非常感兴趣,有些人对商业应用感兴趣, 或者只是享受变脸的过程。 14. 您认为与会体验者会对这一领域技术的迅速发展感到惊讶吗? HL: 是的,尽管许多人已经知道了Deepfake,但是他们当然没想到该技术还能是实时的。我们还展示了我们正在尝试的其他一些非实时示例,他们对保真度感到震惊,还想了解更多有关如何防止其滥用的信息,以及鉴于技术的发展速度,立法者如何参与制定新法规。我认为我们的装置已经达到了提高对仿冒型技术的认识的目的。

2020-03-03

【实时渲染】5G移动网络对3D实时渲染技术的影响
5G移动网络 第五代无线技术已靠近我们。世界各地的城市都在进行测试或部署,据报道预计在2025年将有14亿台设备在5G上运行。 5G网络将更快、延迟更少,并具有一次连接更多设备的能力。使用Wi-Fi和蜂窝频段的低频5G网络速度有望比LTE增长25%—50%。 惊喜与挑战 快速的连接将为个人和企业带来好处,包括缩短数据传输时的延迟,增加连接能力以及支持高速移动物体的能力(意味着它可以在高速火车上使用)。 由于 5G 的速度超出 4G 10 倍或更多,因此需要增加网络本身的密度。提高密度会带来增加网络复杂性的问题,因为基站边界的数量大幅增加了。这意味着干扰更有可能会成为问题,并且连接丢失的风险也会上升。智能、自动频谱分配将是保持网络质量和速度的关键,而有线基础设施则需要进行全面革新,以提供足够的前传、回传和电力。 较慢形式的5G可能会更快地推出更广泛的产品,因为它使用了具有更远距离的中频带波,但是该技术不如毫米波那么密集,因此无法达到那些超快速度。最重要的是,这两种5G需要不同的天线,这意味着并非所有5G设备都将能够同时利用两种速度 行业的广泛应用 一旦克服了这些障碍,5G的影响力将远超智能手机。5G将对各行各业产生巨大的影响,不过受限于移动设备本身屏幕分辨率,是否可以 实时渲染完毕并流式传输8K视频并不重要。 有许多需要大量数据的应用程序将受益于近乎实时的信息发送能力。 制造,娱乐,汽车和零售业有望推动5G需求以及无线通信技术,因为这些行业对数字、云和安全性的要求不断提高。无人驾驶汽车,智慧城市,机器人技术和医疗保健中的可穿戴遥测等技术的基础设施和物流都将需要超快速的5G功能。 例如,超高速无线功能在医疗保健中最受期待的应用之一是远程手术,这将使外科医生可以通过远程控制机器人来对数百公里以外的患者进行手术。这听起来像是一部科幻电影,但未来可期。 CloudXR 英伟达的 CloudXR平台就希望重复利用5G网络前景,它将 云渲染的AR / VR内容流传输到任何设备,而无需昂贵的硬件。 英伟达日前正式为企业VR市场发布了一个全新的软件开发套件NVIDIA CloudXR。利用NVIDIA CloudXR,企业现在已经可以通过5G网络实现虚拟现实和增强现实体验。 全新的NVIDIA CloudXR软件开发套件基于英伟达显卡技术,可帮助企业从基于OpenVR的任何应用程序创建和交付高质量的无线AR/VR体验。 边缘计算 另一个有助于减少实时3D流传输延迟的组件是边缘计算,用于在其起源的网络边缘处理数据。边缘计算效率更高,因为它从集中式服务器中删除了组件和数据服务。 使操作更靠近网络边缘可以缩短数据在客户端和服务器之间传输的距离和时间,从而加快流程并减少延迟。边缘计算会将大量数据上传到网络,并在多个位置运行服务器应用程序。 无人驾驶汽车只是将从边缘计算中受益的一种应用程序。移动边缘计算平台直接部署在网络的接入端,能够极大的减少数据传输所消耗的时间,平台分布式特征则还能够很好地解决海量数据处理及海量终端连接的问题。这样既能满足传输速度问题还能解决信息计算问题。 当汽车在交通中试图读取信号,停留在车道上并在行人越过道路时做出反应时,时间就很重要。边缘计算更可靠,因为在这个情况下它减少了处理和将数据传输到这些汽车之间的延迟时间。

2020-01-15