
我将更深入地研究 Unreal Engine4,在其中一篇文章中,我讨论了有关 UE4的新头发 实时渲染功能的一些知识,我将经历在虚幻引擎4中实际制作漂亮发型的过程。
UE4不包含头发创建工具。这意味着您必须在外部应用程序中创建头发,然后将头发导入引擎以进行着色和渲染。您可能会猜到,我决定使用Maya来制作头发(您也可以使用Blender,Cinema 4D等)。基本上,您需要从3D应用程序中获得创建XGen修饰的功能,该功能可以导出为Alembic文件。Maya具有此功能(我说的是标准Maya,而不是Mala LT)。
在Maya中,有两种创建修饰的方法。其中之一是创建“交互式”修饰。使用此方法时,首先要使用具有完全直发的新郎,然后使用工具“梳理”头发,使头发看起来像您想要的样子。我尚未对该方法进行过多测试,但将来可能会这样做。
第二种方法是使用曲线来创建头发。基本上,您首先要绘制一束要用于塑造头发的曲线,然后使用这些曲线创建实际的发束。就我而言,我决定制作一条辫状头发,因此我创建了遵循该形状的曲线。
您要记住的一件事是,头皮应该具有UV,因为XGen使用UV来创建股线。创建曲线后,即可创建修饰。您应该使用这些设置来创建它,以便可以使用曲线来塑造头发。
如果没有任何反应,请不要担心。接下来要做的是打开XGen窗格(或切换到XGen工作区),转到“实用工具”选项卡,然后根据创建的曲线创建参考线。头发现在应该出现了。
可以使用纹理蒙版来控制头发的生成位置(您可以使用Maya的绘制工具手动绘制蒙版)。还可以配置头发的密度以使其更致密,并增加头发的CV数量,以便它们更紧密地遵循指南。
为了简化工作,我要做的一件事是创建多个描述:我为头顶创建了一个描述,为辫子创建了另一个描述,为额头和额头两侧悬挂的细小毛发创建了最后一个描述。我这样做的原因是因为生成的头发将根据引导线决定其形状,并且我希望不同的部分遵循我定义的形状,而在它们之间没有任何奇怪的过渡。如果将所有描述都保留在同一集合中,则将其导入到虚幻引擎中时不会产生任何问题(请参见上面的XGen创建窗口)。
接下来,我将向您展示如何将头发导出为可以导入到虚幻引擎4中的Alembic文件。
相关阅读推荐:
相关:在Maya和Unreal Engine 4中创建头发:第2部分
2020-03-27

您是如何重建华盛顿购物中心的?
Digital Domain的整合与环境团队在华盛顿特区的国家购物中心度过了一周的时间,收集了有关宪法大道,反射池以及通往林肯纪念堂的所有物品的现场测量数据。通过选择激光雷达和高分辨率纹理扫描,他们能够重新创建自1963年以来从未改变过的区域。当天的历史照片和地图帮助艺术家对其余部分进行建模。
为什么与TIME一起使用这项新技术?
三月是一个十分钟半的VR体验,可在自定义的 虚幻引擎4(UE4)程序上运行。它结合了七个总场景和高保真环境,并以六个自由度以每秒90帧的速度运行。通常,要获得这种品质的体验,就需要将观看者拴在PC或沉重的背包上。但这会阻碍移动并可能使观看 VR渲染的观众望而却步,而 实时渲染解决了这个难题。
为此,Digital Domain创建了自定义工具,使整个体验可以在单个图形卡(GPU)上无线运行。这样一来,与会者就可以以最高分辨率观看King博士,而无需放弃探索10 x 15英尺游戏空间的能力。TIME是一个完美的合作伙伴,因为他们了解历史并花费了将近100年的时间重要的事件。
通过将创意与新技术结合在一起,我们的团队创造了一种独特的方式让人们与过去互动,提供了真正回到过去的首批方式之一。与我们最近在市场上看到的音乐全息图之旅有何相似之处(或不同之处)指导全息图之旅的技术实际上是完全不同的。通用线程是3D角色,但是在全息图的情况下,角色会投影到真实空间(如舞台)中。在《三月》中,观众被放置在一个完全实现的3D世界中。因此,浸入度要高得多。与舞台成为自然屏障的舞台不同,“游行”让观众在距金博士讲话时仅五英尺远,这使体验更加真实。
创建需要多长时间?
尽管这个项目已经讨论了2年多,但实际的创建过程却耗时10个月。
三月由Tramz和GRX Immersive Labs行业领先的沉浸式讲故事者Alton Glass共同创建。为了制作《三月》,TIME Studios与艾美奖获奖的VALISstudio,Verizon Media的奥斯卡奖以及艾美奖提名的沉浸式媒体工作室RYOT,奥斯卡获奖的视觉效果和沉浸式工作室Digital Domain以及屡获殊荣的JuVee Productions合作。CAA代表客户RYOT,TIME和Viola Davis协调了交易,并担任该项目的战略顾问。除了Juvee Productions的Viola Davis和Julius Tennon之外,该项目的执行制片人还包括TIME Studios的Tramz和Orefice,VALISstudio的Peter Martin,RYOT的Jake Sally,Verizon Media的Guru Gowrappan和Digital Domain的John Canning。VALISstudio的Ari Palitz是该项目的首席制作人。
除了提供 VR体验外,TIME还与互动技术公司Storyfile合作创建了辅助安装。它包含一个使用人工智能的语音激活视频,使访问者可以与民权主义者乔伊斯·拉德纳(Joyce Ladner)进行交流。
展览由屡获殊荣的经验设计工作室Local Projects设计。HTC的VR for Impact计划为展览提供了VIVE Focus Plus耳机。
2020-03-26

TIME Studios推出了突破性的沉浸式项目The March,用 虚拟仿真再现了马丁·路德·金(Martin Luther KingJr)1963年在华盛顿的历史性游行。
封面为数字渲染的马丁·路德·金的《时代周刊》特别刊中,独家报道了本次 VR项目的首次呈现。
展览The March(游行)于2020年2月28日在伊利诺伊州芝加哥的DuSable非洲裔美国人历史博物馆对外开放。
《时代周刊》杂志社旗下曾获艾美奖的部门TIME Studios推出了开创性的沉浸式项目The March,将1963年为争取工作和自由的游行,以及马丁·路德·金的标志性演讲“I Have a Dream”(我有一个梦想)首次带入虚拟世界。
The March由TIME杂志社的艾美奖获奖者Mia Tramz和行业领先的沉浸式导演Alton Glass,以及本项目的执行制片人和叙述者Viola Davis共同制作,通过先进的VR、人工智能、电影制作流程和机器学习等技术,在虚拟仿真中再现最真实的人物表现。
经过精心的研究和TIME的新闻精神,The March活动在知识产权管理公司(Intellectual Properties Management, Inc. -- 马丁·路德·金的遗产授权商)的支持下创建,该公司授予了TIME杂志社该项目的开发权。
The March于2020年2月28日在伊利诺伊州芝加哥的杜萨布尔非裔美国人历史博物馆首次亮相,这是该博物馆的首次体验式展览。展览将持续到2020年11月。
该项目使用了那些技术?
马丁·路德·金是使用Digital Domain(以下简称为DD)的Masquerade(假面舞会)系统创建的,该系统结合了高端的动作捕捉(身体和面部的同时动作捕捉),机器学习和专有软件来创建3D的基础模型。艺术家们使用Maya和Houdini完善了马丁·路德·金的身体和面部,然后将模型添加到Unreal Engine(3dcat支持Unreal Engine 实时渲染)National Mall版本中。
同时我们还开发了 实时渲染工具,在基于位置的体验背景下运行,从而确保观众可以使用单个GPU看到最真实的金博士,这意味着不再需要像背包一样笨重的穿戴设备。体验过程可实现无线操作,无需与电脑捆绑在一起。通过使用无线技术,体验者能够自由移动,更加自如,不受年龄和活动能力的限制。
如何做出虚拟的金博士?
DD从选演员开始,找到了一个身材和体形与1963年8月时候的金博士相似的演员,以重塑他的身体动作。金博士的遗产管理公司推荐了专业演说家斯蒂芬·弗格森(Stephon Ferguson),在过去的十年中,他一直在公开演说“我有一个梦想”,他不仅可以匹配体态特征,还能为金博士在演讲中的手势提供现实的参考。我们运用DD的Masquerade系统录制了斯蒂芬的表演,Masquerade系统是一个动作捕捉系统,能够追踪对象身体和面部的微小细节。与机器学习相结合的面部扫描过程,还需要另一个人来出演,为了能将小到毛孔的细节构建到基础模型中。通过这些扫描,制作团队可以确定眼睛的位置,头骨形状,颧骨和鼻梁的位置,以及肤色,匹配到金博士的基础模型中。然后将这些元素提供给DD的艺术家,他们在模型上(已完成50%)添加金博士的其他特征。这个过程中,制作团队参考了大量的历史图片和影像资料。
人的身体和面部每个月都在变化,所以制作团队只参照演讲当天的金博士。而且根据不同的角度,我们导出了尽可能多的照片。很多参考资料都是黑白的,而VR的体验是全彩的。在 实时3D Deep Dive中动作捕捉做出来的效果还原了金博士的特征和动作。在Dimensional Imaging中,DD追踪了斯蒂芬在说出某些单词时面部和眼睛的移动。为了动作捕捉,我们给了他一些不想关的句子让他念,旨在捕捉嘴巴的动作并激活脸部所有肌肉。在Dimensional Image(Di4D)动捕之后,斯蒂芬又来到了DD PCS(DD动作捕捉台),我们在他的脸上画了一个点,并为他安装了头戴式摄像头(HMC)。这些画在脸上的标记,能够正好匹配到DD的头戴设备中的大约190个点,能够捕捉到60帧每秒的画面。
在Di4D中斯蒂芬也做了同样的表演。将HMC中的动作捕捉和Di4D的动作捕捉导入DD编写的机器(ML)之中,制作团队便能够快速,高精度地将2D视频数据与3D模型数据相关联。然后,斯蒂芬穿着运动捕捉服,完整朗诵市场16分钟的“我有一个梦想”。参考视频资料,斯蒂芬模仿金博士的动作和语言,完成演讲。DD使用此次面部和身体的捕捉,将他的面部表情同步并映射到金博士的电子人物上,动画团队观察并调整了他的表情以使二者匹配。ML软件为动画师提供了一个绝佳的起点,动画师花费了大量时间调整虚拟人物的细微差别。特效团队再将捕捉到的身体和面部的动作添加在衣服的动画之中,给最后的效果添加了一些程序性的动态效果。
(未完待续)
2020-03-13

BY:Stephen Danton
介绍
Stephen Danton和他的妻子Sara Kitamura拥有2个Ton Studios,正在开发他们的第一个Unto The End,并展示了战斗系统,世界发展,氛围,视觉特效等。
Stephen Danton拥有计算机科学,游戏设计和人机交互等经验,他认为自己是一位体验设计师。而他的妻子Sara,拥有绘画,摄影,色彩理论和室内设计的背景。她能确保他们花时间在游戏中而不是纸上评估概念,并且她也非常精通整体构图和细节层次上的编辑或者调整。
2 Ton Studios的开始
他们的工作室很小,只有他们夫妻两个人.并尝试通过Gamedev的学习,将自己的想法展示给其他人,其中还包含了一些North项目概念的想法。
战斗系统
尽管市面上有很多款横版过关游戏,但是他们仍然认为横版2D游戏还有更多的乐趣。制作中还要尽量避免任何衍生形式,例如将《黑暗之魂》复制粘贴到2D中,也不喜欢向以前的游戏致敬那种方式。一切都应该存在是有原因的,而不仅仅是因为另一个游戏做到了。
而战斗系统的构建,目标是捕捉近战格斗的感觉,而不是成为剑术模拟器或复杂的格斗游戏。
并且他们觉得,有些时候 2D游戏表现力比3D游戏更好:
• 根据高矮判断伤害
• 评估两个物体之间的左右距离
• 看到玩家的化身
开始在Unity中进行原型制作,并尽量保持简单的原型。最初,没有AI控制的对手,只有Stephen Danton和Sara在玩家1与玩家2的中互相对抗。甚至原型只有一个控制手柄, Sara只能使用键盘来控制。
他们从经典1v1格斗的游戏设置中最基本的动作(移动,攻击,格挡)和简单的动画开始。一遍又一遍地实验对其进行调整,直到它们感觉正确为止。
在每个步骤中都会分解并提出问题:
防护因该定时吗?应该有防护和招架吗?警惕后应该怎么办?动作应该流畅还是应该让玩家处于“战斗模式”?攻击应该多快?攻击应该取消吗?攻击可以中断吗?错过攻击会怎样?依此类推。
然后删除了任何过于僵化或复杂的内容,剩下的一切都符合战斗感。玩家在正确的时刻看到和做出反应的能力是关键。然后保留那些有明显原因的动作,再深度的添加新的动作。
从那里开始添加AI控制的对手,对手将战术性地包围主角(父亲),使用远程武器(如果拥有),使用地形,将玩家引诱到陷阱中,设置伏击等。对手可以走到父亲可以去的任何地方,他们会拉开距离,掉入洞穴,爬壁架,使用坡道等。他们也遵循与主角(父亲)相同的规则,阻挡高低位,攻击高低位,以类似的打击造成相同数量的伤害等。
世界
整个世界完全来自想象力,主要是受他们在冰岛,苏格兰,巴塔哥尼亚(智利南部)和加拿大度过的时光的启发。它是一个神话般的地方,不受历史或小说的束缚。游戏中没有魔术,巫师,兽人,精灵,龙等奇幻生物。
就结构和流量而言,这个世界没有关卡或载入画面,它是一个连续的世界。不过,他们的 实时游戏比Playdead游戏(游戏工作室)拥有更多的“分支” ,在游戏中的各个地方,都需要玩家选择走哪条路。
他们想要表现出一个人在陌生土地上,孤身奋斗努力返回自己的家园的感觉。这种感觉的一部分是在知识不完善的情况下做出决定,需要后期进行不断的处理。
2020-03-10

By:Alexander Verik
亚历山大·维里克(Alexander Verik)使用了ZBrush和Blender雕刻和装饰了漂亮的天空城堡,并向我们展示了制作的全部过程的过程。
介绍
大家好!我叫Alexander Verik,来自乌克兰,今年28岁。是一名2D / 3D自由艺术家,并在业余时间学习3D制作。曾在G5游戏公司工作,为《幸存者:任务》和,《秘密社团》等移动项目做出了贡献。
当Blender 2.80发布时,我看到了 实时渲染可以做到的东西,感到非常震惊。然后便开始研究Blender,虽然我知道其他制作软件例如Maya和3ds Max,但是Blender一直是我最喜欢的程序。Blender和ZBrush的雕刻过程是我最喜欢的,并且Blender还提供了很棒的雕刻工具。
天空之城:起源
我想练习雕刻石头和木头,而不仅仅是一堆石头和木板。他们应该是很坚固的东西,例如房屋或城堡。所以我开始寻找能感动我的插图,并发现了爱德华·科洛科洛夫(Eduard Kolokolov)创作的精彩作品。
我只想练习雕刻技巧,尝试各种修改器以及处理粒子和照明,而不是单纯的重复他的概念,这导致了城堡的一些元素和照明发生了变化。
雕刻过程
最初,我使用fSpy来获取正确的相机视角,这个免费的开源应用程序可与Blender完美配合!制作时只需要上传图像并校正XYZ轴即可。
之后,我将结果导入Blender,打开Eevee调整原始材质,调整到不错的效果,最后打开Ambient Occlusion,以使图像更加生动。在那之后,开始调整其他地方,因为我希望城堡从不同的角度看起来都很棒,而不只是从一个角度看起来不错。
建筑物上所有的孔都是用布尔运算完成的,因为Blender中的布尔功能很棒,所以不用担心拓扑。
搭建完成后,向所有对象添加了小斜角,使用边缘,然后将所有内容导出到ZBrush。
在那里,我将Dynamesh应用于所有单个元素,以获取均匀网格的模型并开始雕刻。在此过程中,最常使用以下画笔:
为了制作填充屋顶的瓷砖,我创建了一个基础瓷砖,在此基础上制作了“ InsertMesh笔刷”,然后手动将瓷砖放置在屋顶上。这部分也可以使用粒子来完成,但是我想要手动来摆放。
为了创建树,使用了ZSphere-一个用于制作风格化树和植物的工具。我还为叶子制作了一个单独的枝桠,并在各种变形的帮助下,将其复制成其他形态并沿树干分布,让使树看起来更加有生机。然后用刷子添加圆形线和突出的树皮零件。
为了给地板创建瓷砖,我自己创建了瓷砖,并使用Blender中的粒子系统将它们分散。并且我只是创建了一个与地面大小匹配的平面,并移动了滑块,直到获得满意的结果。
灯光
有许多出色的 实时引擎都可以帮助艺术家实现出色的效果,而Blender就是其中之一。所以我决定使用Eevee来工作,它是Blender非常棒的功能之一。
借助Blender的 实时渲染引擎,我们可以清楚地看到在改变光源或者进行调整时的实时的效果反馈。这样一来,我就可以轻松地使用各种灯光,使一些部分变暗,突出某些重要部分。
场景准备好后,我开始添加HDR贴图并调整位置,以获取所需的灯光设置。还打开“屏幕空间反射”以在表面上创建假反射。在颜色部分我选择“ Filmic”和“ High Contrast”以避免过度曝光
之后开始添加光源。
首先,为了展示出月球的体积,所以给了月球添加了点光源。然后,加了两个Sun光源来获得全局照明和阴影。
下一步,为了突出场景的其余元素,需要做出一些调整。但要其中一点要小心,灯光时要避免过度曝光其余元素。最好在不同的地方创建多个光源,而不是一个全局光源。
我调整了每个光源的半径,以使某些元素更淡一些,而其中一些轮廓更明显。虽然一切都看起来不错,但是城堡似乎显得寂寞又寒冷。
为了给现场增添了一些温暖,我使用相同方式给场景增加了一些暖色调的东西。特别是窗户,每个窗户都放了点光源作为填充。之后,将点光源放置在靠近平面的位置,以使光源可以散布到周围的物体上。现在,我们的场景看起来更加生动有趣,但是城堡周围的区域仍然显得空旷。
为了给场景增添些神秘感,并填补城堡周围的黑色空白,我决定制作一些雾放置的附近。我创建一个多维数据集,并将“Principled Volume”应用于该数据集。在节点中,我添加了“ Noise”,并在ColorRamp的帮助下获得了雾化效果。为了使折射光线并总体上看起来更好,还在Eevee设置中启用了“ Volumetric Light”和“ Volumetric Shadow”并添加了更多样本。
现在只需要添加云和恒星,效果应该就很好了。并且和做月亮一样,我在“色彩管理”中更改曲线以添加淡粉色。现在只需要用胡椒粉和盐调味,然后放入烤箱20分钟!
2020-03-02

这是由亚历山大·沙洛夫(Alexander Sharov)以《光晕(HALO)》风格所做创作的游戏场景设计的第二部分: 【3ds Max建模】《光晕(HALO)》粉丝制作 : 游戏场景设计 (下)
造型
建模工作的流程非常简单,最终在Maya中完成了这些物体。制作中经常会检查参考资料,并玩一下《光晕》,这样能更好地理解为什么艺术家为什么要这么做。不断的分析,理解,测试,修改-这就是他的建模方式。还有一些建筑对象是由模块化的零件(拱,楼梯,圆柱等)制成的,其他则是单个模型。
场景中的所有对象-从道具到大型建筑元素-都经过修改来适应场景。就像在原始的《光晕》中一样,这个过程中注意大型垂直元素,可以用它们用作引导观众眼睛的视觉东西。
纹理化
场景使用了几种图素材料:塑料,金属,金属漆。一些材料取自在线图书馆,另一些则是从头开始制作的。过程中使用了Substance Painter,Substance Source和Megascans。为了有效给一些东西添加细节,使用了trims和mesh decals.。
照明和材质的效果紧密相连,制作时需要在两者之间找到平衡。例如,减少颜色饱和度,以便在烘焙后获得更自然的效果。另一方面,艺术和个人的品味会有些冲突,而这基于个人喜好的选择。
Substance Alchemist是一个很棒的工具,可以快速获取结果并马上可以得到反馈。它算是一个快速原型。
按照原来的计划将着陆点和建筑物之间的区域有机化-地面,石头和草地。然后将这些材料上传到Unreal,进行了一些迭代,然后决定用不同的东西替换它们。在这种情况下,与在Substance Designer中制作的材料相比,Substance Alchemist可以节省很多时间。最后,还是通过道路将场地和建筑物连接起来。
背景
在制作背景时,必须要注意的是要将背景和中间地面和前景清楚地分开。这里可以使用一些现有的山脉的资产,然后调整它们。重新制作山脉也是可以的,但是时间上会有所浪费。现在网络上有很多高质量的内容,直接使用它们可以节省很多时间,以最小的努力获得最好结果才是最好的选择。
天空
天空是我最喜欢的部分,这里参考了Tyler Smith如何手动创建体积云的教程。在后来的制作中还在空中增加了一艘巨大的船只,然后修改构图和布局,然后使用了调整过颜色还具有透明度的平原。
最终效果:
实时渲染、像素流送就上3Dcat实时渲染云平台www.3dcat.live
2020-02-28

Unity中的东京夜景: 提示和技巧
CG艺术家加里·唐(Gary Tang)简要介绍了他的《东京之夜》环境的制作过程,这里充满了用 Unity,Maya和Substance
介绍
大家好,我叫Gary Tang,我是FuseFX的CG 通才。我专注于建模,纹理化,lookdev和照明。过去,我从事过诸如SuperGirl,侏罗纪公园:Camp Cretacious,速度与激情:间谍赛车手等项目的工作。与我合作的公司包括DreamWork Animation,Encore VFX,Blur Studio,Mocean。
东京之夜:创意
我一直着迷于日本的夜景:不同的灯光标志常常使场景看起来像是科幻电影的镜头。我一直在学习Unity,并且需要一个项目来测试新的引擎管道。过去,我还创建了一个Tokyo street项目,并认为这将是一个起点。
东京街
造型
我重复利用了以前项目中的一些资产,但是这里约有80%是还新资产或经过优化后的资产。我喜欢将资产从一个项目升级到另一个项目。
尽管我没有概念艺术的起点,但我收集了许多不同的参考资料和想法,为自己提供了项目最终完成的方向。
当我进行基本的遮挡时,我会从最接近相机的地方开始添加细节。后面的建筑物将逐渐变得越来越简单,而最远的建筑物实际上只是盒子。
我用来简化建模过程的策略是完成一栋建筑物并对其进行抛光,然后在第二栋建筑物上重用一半的资源,即窗户,墙壁或门。您可能会注意到,场景中的许多地理区域只是缩放到不同大小或使用不同颜色/材质的同一模型。
规模
在我的Maya场景中,我导入了几个人员资产并将它们分散在场景中以供参考。在Unity中,我使用了“体积雾”和“景深”来使场景看起来很大。我还对偏远的背景建筑使用了强迫透视法。
纹理化
我使用了Substance Painter作为纹理。以我的经验,Substance Painter非常适合用于此类纹理化环境。由于一半以上的资产是重复资产,因此在现场复制所有资产之前,请务必先对所有资产进行UV处理,这一点很重要。这样一来,一个着色器就可以在所有的灯,灯柱,窗户等上面工作,并且看起来不现实的几何形状可以分解为一些简单的东西,例如建筑组,灯柱组等。
就像进行建模一样,我大部分时间都在对靠近观看者的建筑物进行纹理处理和细节处理。模型越靠后,它们使用的细节和分辨率越少。实际上,远处的建筑物甚至都没有纹理。他们在Unity中使用过程着色器,因为如果纹理化了,它们的细节甚至都不会读取。
我在Substance中设置的Rain和Dirt着色器是最重要的。为了确保所有带纹理的资产读取一致,我制作了一个着色器,为它们提供了相同水平的污垢,灰尘和磨损。雨着色器是我的最爱:我使用雨粒子画笔为场景中的所有资产创建雨效果,从而为场景增添了真实感。
照明和后期处理
至于照明,我在 Unity中使用了所有本机照明。聚光灯用于路灯。许多照明也来自照明的餐厅和商店的招牌,并且这些照明都是由具有光发射的几何形状来照明的。至于后期处理,我使用了Bloom使灯光更加饱和,使用了色彩平衡进行最终调整,并使用AO为几何图形提供了更多阴影。
如您在这里看到的,我放置了很多灯光,幸运的是Unity可以很好地处理许多灯光。
最后的润色
为了获得最终外观,我在场景照明中进行了很多工作,以使其具有半未来感的外观。由于我不打算重新创建已经存在的内容,因此我在后台添加了更多具有未来感的建筑物。不同的商店标牌和餐厅广告牌在分解场景并使场景变得更加繁忙方面发挥了巨大作用,以便观众花一些时间检查所有漂亮的细节。
使用HDRP渲染时,您可以获得更好的照明和阴影质量。我在Unity中以3D场景启动该项目,并在完成所有纹理和照明后将其转换为HDRP。这样做之后,我看到了整个场景的显着改善,就好像您认为将PS2游戏环境变成PS4游戏质量环境一样。如果要重新开始该项目,则实际上是使用Unity HDRP启动该项目,因为当我将场景升级到HDRP时,我不得不回去并修复许多着色器,因为它们不再兼容。
2020-01-23

5G移动网络
第五代无线技术已靠近我们。世界各地的城市都在进行测试或部署,据报道预计在2025年将有14亿台设备在5G上运行。
5G网络将更快、延迟更少,并具有一次连接更多设备的能力。使用Wi-Fi和蜂窝频段的低频5G网络速度有望比LTE增长25%—50%。
惊喜与挑战
快速的连接将为个人和企业带来好处,包括缩短数据传输时的延迟,增加连接能力以及支持高速移动物体的能力(意味着它可以在高速火车上使用)。
由于 5G 的速度超出 4G 10 倍或更多,因此需要增加网络本身的密度。提高密度会带来增加网络复杂性的问题,因为基站边界的数量大幅增加了。这意味着干扰更有可能会成为问题,并且连接丢失的风险也会上升。智能、自动频谱分配将是保持网络质量和速度的关键,而有线基础设施则需要进行全面革新,以提供足够的前传、回传和电力。
较慢形式的5G可能会更快地推出更广泛的产品,因为它使用了具有更远距离的中频带波,但是该技术不如毫米波那么密集,因此无法达到那些超快速度。最重要的是,这两种5G需要不同的天线,这意味着并非所有5G设备都将能够同时利用两种速度
行业的广泛应用
一旦克服了这些障碍,5G的影响力将远超智能手机。5G将对各行各业产生巨大的影响,不过受限于移动设备本身屏幕分辨率,是否可以 实时渲染完毕并流式传输8K视频并不重要。
有许多需要大量数据的应用程序将受益于近乎实时的信息发送能力。
制造,娱乐,汽车和零售业有望推动5G需求以及无线通信技术,因为这些行业对数字、云和安全性的要求不断提高。无人驾驶汽车,智慧城市,机器人技术和医疗保健中的可穿戴遥测等技术的基础设施和物流都将需要超快速的5G功能。
例如,超高速无线功能在医疗保健中最受期待的应用之一是远程手术,这将使外科医生可以通过远程控制机器人来对数百公里以外的患者进行手术。这听起来像是一部科幻电影,但未来可期。
CloudXR
英伟达的 CloudXR平台就希望重复利用5G网络前景,它将 云渲染的AR / VR内容流传输到任何设备,而无需昂贵的硬件
。
英伟达日前正式为企业VR市场发布了一个全新的软件开发套件NVIDIA CloudXR。利用NVIDIA CloudXR,企业现在已经可以通过5G网络实现虚拟现实和增强现实体验。
全新的NVIDIA CloudXR软件开发套件基于英伟达显卡技术,可帮助企业从基于OpenVR的任何应用程序创建和交付高质量的无线AR/VR体验。
边缘计算
另一个有助于减少实时3D流传输延迟的组件是边缘计算,用于在其起源的网络边缘处理数据。边缘计算效率更高,因为它从集中式服务器中删除了组件和数据服务。
使操作更靠近网络边缘可以缩短数据在客户端和服务器之间传输的距离和时间,从而加快流程并减少延迟。边缘计算会将大量数据上传到网络,并在多个位置运行服务器应用程序。
无人驾驶汽车只是将从边缘计算中受益的一种应用程序。移动边缘计算平台直接部署在网络的接入端,能够极大的减少数据传输所消耗的时间,平台分布式特征则还能够很好地解决海量数据处理及海量终端连接的问题。这样既能满足传输速度问题还能解决信息计算问题。
当汽车在交通中试图读取信号,停留在车道上并在行人越过道路时做出反应时,时间就很重要。边缘计算更可靠,因为在这个情况下它减少了处理和将数据传输到这些汽车之间的延迟时间。
2020-01-15

交互式3D体验比以往任何时候都更具沉浸性和可访问性。借助云渲染和实时3D流技术( 实时渲染),现在可以在任何设备上获得高性能、可扩展的3D体验。你不再需要虚拟现实即可交互式3D,也无需将应用程序下载到手机上即可播放。这些无缝的实时体验可以被任何联网的移动设备访问。
交互式、沉浸式数字体验的未来趋势如何?
扩展现实
虚拟现实变得比以往任何时候都更容易访问。通过高度复杂的游戏引擎工具,大规模创建大型而复杂的VR体验比以往更具可行性。通过这些工具,用户可以进入完全独立的虚拟世界中,并获得真正身临其境的体验。
同样,增强现实技术让用户浸入一种将数字世界与物理现实融合在一起的体验中(例如精灵宝可梦Go)。从游戏玩家到编码人员, AR应用已变得越来越普及。越来越多的公司都在测试或部署 AR / VR解决方案,其中包括10% 的世界500强公司。
跨行业的诸多应用
扩展现实可以改变无数行业的用户体验,包括购车、室内设计、游戏、安全和医疗保健等。
想象一下在线定制理想汽车的场景。将AR模型放入驾驶场景中,消费者可以即时看到汽车在各种场景中的形象。另外,你也可以在新家中布置虚拟家具,比如在宜家购物时扫描物品,你马上就可以确定它是不是放得进自己的汽车后备箱中。
对于商家来说,通过3D交互购物,有可能开创更多的销售场景。据调查,高达48%的消费者更乐于从能够提供 AR体验的零售商那里购买商品。
在医疗保健方面,有研究所正在努力开发用AR为外科医生提供X射线影像的应用。通过使用AR眼镜,外科医生可以在手术过程中准确看到医疗器械在皮肤下的位置,这对患者的治疗具有重要意义。
AR / VR还可以通过体验式学习彻底颠覆课堂体验。比如,在地理和历史课程中,学生能够直接“访问”世界各地的国家。在生物课程中,学生可以现场“解剖”青蛙。
我们 3dCat的客户在这些方面都有很多精彩的应用。
AR / VR局限性
尽管VR和AR是令人兴奋的技术,可以颠覆众多行业,但它们仍然有其局限性。
首先是价格过高,大规模的应用目前还只限于一些大公司。例如2018年沃尔玛(Walmart)通过采购上万Oculus头戴式设备对员工进行培训。这对很多中小企业来说还需要一段过度期。但是通过云端提供的 流化技术,可以大幅降低企业的采购成本。
其次,头戴式设备的体验还不是非常完美。有体验者佩戴后感觉头晕、恶心,甚至国外有报道“VR手臂综合症”的患者,据称“其手臂好像和身体失联了似的,就跟游戏里的虚拟手臂一样”。
然而,随着技术的不断发展以及越来越多的公司将其纳入其业务流程中,我们将看到该技术在更广泛的应用中会变得越来越好。
2020-01-10
热门标签
云加速实时渲染艺术家实时游戏AR/VR渲染CloudXR虚拟制作元宇宙虚拟数字人云工作站元宇宙解决方案虚拟现实汽车虚拟仿真vr虚拟现实云渲染实时云渲染元宇宙云化XRCloud VRue4UE5边缘计算平台云交互云仿真云展厅虚拟仿真云流送技术云流送像素流UE虚幻引擎3D数字孪生平台数字孪生虚拟仿真软件智慧园区云平台装修云设计BIM云平台三维虚拟仿真园区数字展厅3D场景制作GPU渲染像素流送的成本实时渲染实时3D3D可视化C4D实时光线追踪云游戏云技术实时交互unity游戏动画即时渲染沉浸式云软件云应用
热门资讯

2024年VR虚拟现实未来发展趋势介绍
2023-11-23

VR虚拟仿真实验教学平台_技术与应用探讨
2023-11-01

如何克服实时渲染难题?六大实时渲染技巧教学!
2023-09-28

虚拟仿真-探秘宠物医院虚拟仿真实训系统
2023-09-15

边缘计算是什么概念?关于边缘计算平台的说法
2023-08-25

数字孪生+实时云渲染:打造流式三维可视化引擎
2023-08-08
往期资讯
2023-12-01
2023-12-01
2023-12-01
2023-11-30
2023-11-29
2023-11-29
2023-11-28
2023-11-27