3DCAT 二维码

扫一扫 立即咨询

行业资讯

【UE4】使用UE4制作游戏类沙漠模块化场景
BY:Chris Lambert 介绍 Chris Lambert是Counterplay Games的环境艺术家,他使用模块化的方式在blender ,QUIXEL Megascans和 UE4创建了一个沙漠场景。(译者注:3dcat 实时渲染平台支持UE4游戏引擎) 开始工作 对于这个项目,我有一个很紧的时间表(大约6个星期),但我对场景的外观有了很深的了解,因此在blockout期间,我会尝试所有事物的布置,以便将灯光和建筑物放置在我觉得看起来不错的位置。  灯光照明的部分,我进行了许多测试以大致了解情况。 建筑物和道具 对于建筑物,我收集了很多中东房屋最为参考,然后开始创建几座具有不同外观的房屋,这样我只需要将其中的模型旋转一些就可以有一些变化。对于门之类的东西,只创建了一个模型,在Substance Painter中创制作了不同的纹理变化,然后在 Unreal中使用了顶点绘制,这样就可以拥有不同外观的门,而不用进行模型的修改。 我用Blender制作了所有建模,但它最大的好处是创建了资产列表,从最大的资产(建筑物,墙壁等)到小型装饰道具。可以将它们尽快放在场景中,看看它们是否有效,然后再对其进行完善。 场景中摆放地毯也非常重要,我了解Blender的布料模拟,但这是我第一次尝试。布料模拟还可以用于购物车篷布和窗帘。该模拟有很多参数需要测试,经过反复试验,最终得到了想要的东西。 对于所有的小型道具,仅列出了一些说明(例如,展示房屋已被使用和使用),从而列出了一个简短的清单。我在参考图像中看到了很多枕头和靠垫,所以我应该要制作一些,随后使用Blender的模拟工具制作了这些东西,它们的柔韧性可以很好地获得一些丰满的枕头! 纹理贴图 地形和建筑材料是使用Quixel Megascans(和Mixer)制成的。他们有很多很棒的泥浆和石头纹理,然后用Mixer编辑它们非常容易,最后效果非常好。对于石材墙,使用了一块不错的石材纹理,改变了周围的颜色,使用另一种纹理在裂缝中添加了一些灰尘,然后就可以使用了。场景中还使用了许多不同的贴花,它们有很多巨大的污垢和裂纹贴花,这些贴花非常有助于增加一些细节。 以下是使用的Megascans资产列表: - 岩石(Rock Pile) - 岩墙/散石(Rock Wall / Scatter Rocks) - 屋石(House Stone) - House Mud(在Mixer中制成,但主要是这个) - 地面1,地面2(主要在混合器中制成) - 贴图1,贴图2 - 垃圾堆(Trash Piles) - 杂草(Weeds) 灯光 要完全按照设定的要求来制作灯光,这是一个挑战,需要进行大量的迭代和实验。最终设置非常基础,只有定向光( directional light)和天光(skylight)。我对照明烘焙感到满意,但是在某些地方还需要一些额外的东西。房屋内部,有一些点光源,以帮助支撑烘焙的照明,制造一些额外的反弹。 对于上面的镜头,我还为左侧地毯上的红色/粉红色反射添加了一个附加的点光源。另外,里面有一个灯光功能,蓝色的篷布灯在附近反弹。篷布中的孔没有很好地拾取,因此具有多孔功能的光罩可弥补此细节。 结论 我非常喜欢这个场景,并且从中学到很多东西。我发现一种有用的技术是在 UE4中使用预制件/蓝图。这些建筑物在设计上相当模块化,并包含许多不同的模型用来创建整个房屋群。为了提高每间房子的制作速度,可以先制作一些顶梁和窗框作为模板。这样,我可以快速复制整个窗口框架以建造新建筑物。这也意味着我可以对预制件进行更改(例如,移动日志),并且可以全局更改,而不必对每个实例进行更改。节省时间!

2020-02-10

【实时渲染】UE4头发实时渲染技术的进步-part2
第一部分: UE4头发实时渲染技术的进步-part1 进入 UE4的基本DDC Hair管道虽然目前不存在用于Hair Grooms的标准文件导入/导出格式,但是此新的实验性Hair工具提供了一种命名约定方案,用于使用Alembic文件提取从标准DCC工具导出的Groom数据。这也为单个Alembic文件中的多个头发组提供了支持(例如,头发,桃子绒毛,胡须,睫毛和眉毛)。 通常,模拟和渲染头发都是昂贵的。UE4 4.24中可达到的头发帧速率取决于修饰的大小,分辨率和运行它的基础硬件,但作为指导,人们可以预期人类修饰的2080Ti的帧速率为30fps或更高(40K +股)的1080p分辨率。Morand与之合作并演示的测试groom绝不是骗子,他们是长长的金色groom,这是最难使用的案例之一。查尔斯·德·鲁西耶斯(Charles de Rousiers)解释说,目前的表现只是实验性的,因为“目标是将所有内容放在适当的位置,而不是着眼于当前的特定表现。” 团队很快指出,当前的头发表现并不像人们想象的那样,Epic很快就能实现。 Miglio解释说,在第一个实验软件版本中,团队专注于“确保我们提供出色的视觉质量和物理模拟”。“说实话,今天,当您将Alembic引入 虚幻引擎时,几乎所有内容都是不可编辑的。即使编辑简历,也几乎没有能力。我认为,随着时间的流逝,有一个逐步改进此问题的雄心,并允许UI提供更多的调整,更多的修改,但是距离还很远。” 可以调整头发的外观和渲染,但不能调整groom本身。正如莫兰德(Morand)指出的那样,“我们要确保我们保持对话的畅通。我们已经与Peregrine Labs进行了初步讨论。他们有兴趣与我们合作,但可能不会在下一版本中……但是某些系统可以使用户拥有实时链接,如果有人在Ap中进行修饰,则更新将自动通过引擎。” 头发受以下三个因素驱动:BRDF,几何形状以及发束之间的反应,或者光从发束间反弹到发束的方式同时还带有阴影。UE4使用了许多最先进的方法来实现实时性能,该性能可以根据艺术家的实时预算而有所不同。例如,系统对groom进行体素化并使用深阴影贴图。该修饰可以通过MSAA进行超采样,每个像素8个样本。尽管使用全路径跟踪对头发的某些解决方案相对容易,但是它们的成本很高,因此Epic团队使用了一系列巧妙的方法来加快渲染速度( 实时渲染云),同时生成完全由几何形状和响应组成的自然外观的头发。可能是背光,自阴影和照明。 导入时,曲线也可以标记为引导线以驱动模拟。大多数头发模拟并不均等地模拟所有头发,而是使用权重机制从一组特殊引导头发中传播出去。这很重要,因为UE4不仅提供渲染和着色,而且还提供使用 UE4的Niagara进行的动力学模拟。

2020-02-06

【实时渲染】UE4头发实时渲染技术的进步-part1
By MIKE SEYMOUR 实时游戏,虚拟制作(尤其是数字人类)中最复杂的问题之一是模拟移动并看起来逼真的头发。 去年12月,Epic发布了UE4 v4.24,对于致力于创作更加可信的角色,生物和数字人类的艺术家,它首次展示了Epic基于链的新头发和毛皮系统。该系统使艺术家能够以实时帧速率模拟和渲染成千上万的逼真的头发。 Gaelle Morand是Epic Games的高级技术艺术家,曾是在San Francisco在Industrial Light&Magic从事外观开发和照明工作主管5年。作为一名经验丰富的艺术家,她对新系统的开发速度以及该实验性早期发行版能做什么有明确规划。尽管Charles de Rousiers对于 实时渲染性能的这种飞跃一直不太确定,但是在检查了新系统之后,我们同意Morand的说法,即“ Charles和团队已实现的功能非常出色”。 传统上,实时头发是使用基于卡的渲染或其他近似方法创建的。在基于卡片的工作流程中,少量的大平板用于提供大量单个头发的近似形状和运动。使用UE4.24中新的头发渲染和模拟功能,现在可以渲染每根头发。通过渲染每个单独的头发,艺术家可以极大地提高实时模拟头发的视觉保真度。 大约5年前,NVIDIA提供了一种名为HairWorks的头发解决方案。HairWorks工具集包括DCC工具集成以及对头发的 实时渲染云和模拟。较新的UE4版本不再支持Hairworks。 最近,Epic Games从Joe Alter(他于2019年11月也加入了Epic)手中购买了《剃头和理发》。令人惊讶的是,该公司随UE4.24一起提供的新Epic理发工具根本不涉及该软件。自从获得Shave and Haircut以来,Epic Games已经在GitHub上提供了它的v9.6 Maya插件和相关的着色器,作为源代码和编译后的二进制文件。这些都是免费的,每个人都可以在Unreal Engine 4 EULA下使用。认为“剃须和理发”现在将成为UE4解决方案的关键部分可能是合理的,但事实并非如此。Epic知道,修饰工具的市场并不大,并没有占据主导地位,该团队热衷于与Peregrine Labs及其Yeti软件等一系列公司合作。Epic显然可以凭借其庞大的研发预算和市场影响力淘汰掉这些较小的公司,但是Epic非常专注于为这些规模较小的专业美发公司提供长期支持。 Epic目前正在与Ornatrix,Yeti以及Houdini的groom一起测试其新的Hair实施。Ornatrix和Yeti都可以“即插即用” Alembic出口到UE4的新Hair中,但是工作室并不局限于这些软件包。实际上,任何事情“现在都可以进入虚幻”,Morand解释说。“Groom可以是ILM的Haircraft或Weta Digital的Barbershop-只要符合Alembic出口和我们在输入时寻找的属性集,就可以了。当UE4使修饰成为引擎时,UE4正在寻找一组真正构成修饰的标准属性。”她补充道。修饰不仅仅是一组曲线-还有一些重要的属性,例如宽度和颜色,而这组元数据至关重要。 Epic购买剃须刀和理发的附带好处与专利有关。该市场领域一直是专利雷区,因此一些软件无法在美国销售。现在,由于Epic拥有Shave和Haircut的专利,并且拥有雄厚的财力,该公司放弃了涉及的任何专利问题,这为Yeti和Ornatrix的广泛应用扫清了道路。 虚幻引擎产品管理总监Sebastien Miglio补充说,两家公司现在都知道自己受到Epic的保护是安全的,而且“它们可以以前所未有的方式在全球进行商业化”。 第二部分: UE4头发实时渲染技术的进步-part2

2020-02-05

使用实时渲染技术制作影片“死者之书”-part4
TL(Torbjorn Laedre):我们关注的重点之一是捕捉全球风在环境中连贯移动的感觉。为了实现这种一致性,我们对世界上存在的每片植被都使用了一个程序噪声函数。通过对树中的每个层次级别(树干,树枝,树枝,针刺簇)重新采样此功能,我们能够进一步改善独特的变化,而不仅仅是为每个实例应用单个样本。 为了帮助指导过程仿真更接近现实世界的行为,我们决定导出整个环境并通过森林运行脱机流仿真。从此模拟数据集中,我们将体积快照重新导入Unity,并将其应用于噪声函数中,以修改在全世界看到的过程强度和湍流。 在内容方面,对每片植被进行建模和配置,使其具有如何应对外力的物理特性。我们希望确保可以捕获作用在草,灌木,树枝和树木上的风的自然弯曲,并为阵风赋予惯性。在阵风的最高强度下,添加了一个附加级别的内部动画,以真正加深在大风天在自然界中可以观察到的草叶,树叶和针叶簇的强烈沙沙和颤动。 SIGGRAPH:《创世纪》在作品中有什么局限性?CG和真人电影在平台上的应用是否有所不同? FG(Franceso Giordana):迄今为止,我们只专注于完整的CG拍摄,但是这种技术并没有阻止我们在真人拍摄中使用Genesis。主要区别在于实时板与计算机实时图像的集成。目前,这需要一个实时的伴奏,但是我们已经集成到我们的系统中,可以使用外部解决方案来应对这一挑战。例如,我们的R&I团队目前正在实景拍摄过程中,将LED背景幕集成在实景演员背后。通过使用这些高分辨率的墙,我们可以实时修改背景,以在演员上保持准确的光照,甚至可以将它们用作活动面板中的最终背景。 SIGGRAPH:简而言之,您对此项工作有何兴趣? VE(Veselin Efremov):令我兴奋的是,我可以自由地制作自己感兴趣的故事和世界,并探索自己关心的视觉风格和叙事主题,而这一切都面临着使我们所做的一切看起来比以前更好的艰巨挑战。当专门涉及虚拟摄影时,它感觉非常强大-能够精确实现您所设想的拍摄效果,立即查看结果并能够对其进行调整。虚拟电影摄影可以解放导演和周围所有人的整个创作过程。它可以从根本上改变创意团队中协作的外观。 在实时制作中,我不必预先想象甚至计划整部电影,然后与队友一起执行我的愿景。在整个制作过程中,我可以发挥创造力-我可以探索变体,改变主意并在工作中发现有趣的想法。作为作家和导演,我可以看到其他人是如何做到的,并且可以抓住机会从动画,演员的表演,照明或渲染功能中汲取灵感,并将其整合到其中叙述,并使其轻松流畅地成为电影的一部分,就好像它一直是那样。这种自由扩大了创造力的范围。灵感和想法来自四面八方。 令人激动的是,用于电影制作的实时工具将得到越来越广泛的采用,并将改变电影的制作方式。他们必须这样做,因为这种工作方式是无法抗拒的。

2020-02-04

使用实时渲染技术制作影片“死者之书”-part3
挖掘实时渲染一拍摄作品《死者之书》幕后幕后故事 为了弥合实景拍摄和虚拟制作之间的差距,MPC与Technicolor R&I合作开发了一系列渲染解决方案,这些解决方案近似于传统物理相机的功能。团队专注于建立现实的“景深”效果。他们的虚拟相机可以完全像物理相机一样运行,并且图像中的视觉响应与真实相机非常相似。这与各种物理硬件设备的集成一起,可以帮助摄制组像在真实场景中一样在虚拟场景上一起工作。 《创世纪》如何迎合传统的电影制片人,他们对虚拟应用不感兴趣,更习惯使用传统硬件。 为传统电影人提供熟悉的工具非常重要,对各种各样的传统摄像头设备进行了编码,例如起重机,液压头和移动轨道,并采取了措施确保这些工具与他们习惯的硬件一样。 使用编码硬件代替传统路由的缺点之一是丧失物理限制。传统电影制片人熟悉电影硬件的某些缺点。一个很好的例子就是聚焦拉动-在真正的相机上,还没有一种可靠的方法来自动聚焦场景的特定元素,因此这仍然是手动操作,需要熟练的AC。另一方面,可以将虚拟相机设置为自动对焦场景中的任何点。根据制片人的偏爱在虚拟相机上复制手动对焦。这保留了电影制片人的创造力,使他们能够以自然的方式工作。 创世纪使用哪种工具实时跟踪和操纵“死者之书”和其他类似设计的场景? 团队已经开发了一种基于USD的管道,用于在构成Genesis平台的不同应用程序之间移动数据。USD是 Pixar开发的一种功能特别强大的开源场景描述格式,能够以难以置信的复杂性来组成轻量级场景。实际上,USD在使用层次结构,层和其他结构表示数据时提供了灵活性。该管道使团队可以在DCC(例如Maya,Houdini和MotionBuilder)与Unity游戏引擎之间来回移动,以简化内容迭代。 此外,团队已经将虚拟生产管道连接到MPC的现有VFX管道,以确保在虚拟生产阶段结束时,舞台上拍摄的所有内容都可以直接加载到布局中。通常,这是电影制作过程中最繁琐的部分,但是他们花费大量的时间和精力来标准化制作流程 另一个令人兴奋的组成部分是在拍摄过程中实时生成数据。这些数据通过网络流传输,分布在不同的用户之间,并不断记录下来,以确保每一次拍摄都能在线下得到成功的重建。团队主要使用此工具为虚拟摄像机生成动画,但其核心功能是捕获虚拟舞台上发生的所有更改。这些变化可以设置修整,照明,甚至调整程序效果的参数,例如风速和风向。通过远程触发任意数量的外部记录系统(例如运动捕捉或A / V记录)的系统来补充该目标。这样可以在拍摄结束时在数据库中正确捕获,标记和资产化。

2020-02-02

使用实时渲染技术制作影片“死者之书”-part2
收集对工作人员将要拍摄的真实位置和环境的扫描。这可以包括拍摄真人版照片的真实场景的激光雷达扫描,或艺术家制作的微型模型的扫描,或来自照片的常见元素库。摄影测量法是胶片制作和视觉特效中的另一种常见做法,用于以照片级逼真度进行资产收购。然后将生成的3D资产用于3D(CG)环境的构建,将其用作影片中的虚拟布景或布景扩展。“死者之书”中看到的许多资产都是通过摄影测量获得的。 “死者之书”的摄影测量过程 摄影测量所需的图片数量取决于所扫描的对象。有时只需要30张照片就足够了,而在其他情况下,则需要拍摄1000张以上。例如,对于松树的树干,大约为100张。使用智能处理算法(我们使用了RealityCapture),即使使用普通设备捕获,也可以获得高质量的结果。 使用扫描可以让素材更真实,没有什么比自然本身更接近自然了。 作者同时使用了Quixel Megascans素材库,作品中的小灌木丛和植物很多便是从中取材的。Megascans库具有各种现成的对象,这些对象可用于创建和构建各种生物群系。 如何在整个景观中添加足够的细节以体现真实感 每作品中放置一棵松树时,都会选择一个随机的树变体,并为其填充独特的属性。附加到树上的自动规则将指示随着时间的推移,树枝,细枝,圆锥体和针头会聚集在松树的根部周围。在添加这些细节对象之前,规则集将查看放置的树的属性以及树周围的环境,并相应地调整。结果每棵树会因附近地形的坡度,树木底部的地面类型,树冠下方是否还有其他树木或物体等变得不同。 一旦自动分配规则指出了要放置在哪个细节上,该工具便会对这些对象进行实际的物理模拟,以使它们从树冠上掉下来并自然地安放在环境中。为了补充这种自动分配,我们还基于相同的原理采用了显式物理笔刷。环境艺术家可以从小组预设中进行选择,然后将其中的随机选择拖放或喷洒到世界中。同样,它们将模拟物理,直到自然地融入环境。 将环境人口基于这些类型的工具,不仅使我们不必在世界上手工放置大量此类对象,还避免了看起来像人造和人造的自然环境的风险。

2020-01-31

使用实时渲染技术制作影片“死者之书”-part1
如今 实时渲染技术使电影创作者在制作的各个阶段都能随时掌握项目,如果改变了灯光,则只需按“播放”,就可以看到修改后的影片效果。让我们一起了解一下, 实时渲染技术是如何革新电影制作的 “死者之书”由Unity Demo团队制作的互动式短片,讲述了穿越神秘生物栖息的森林的旅程。它是在实时直播中播放的!温哥华SIGGRAPH 2018舞台上,展示了如何利用虚拟制作拍摄短片序列,“死者之书”团队夸赞了实时渲染技术和渲染质量的进步。 《死亡之书》在实时技术方面的独特之处 “死者之书”使用高清渲染管道(HDRP),通过摄影测量和扫描来处理资产,可以确保人们所看到画面的具有尽可能高的清晰度,并且引擎所做的工作仍保留在后台。艺术家无需做任何特别的事情-它通过非常高效的渲染方式保留了清晰度。而以前不可能做到这一点。通常该过程将涉及一些调整,为了快速渲染做一些取舍,但是现在在保持正常工作的前提下,技术已经达到了这种质量水平。 另一个方面是虚拟电影摄影过程,这可以通过Genesis实现。这些工具使创作者在电影制作中享有充分的自由,他们为导演和摄影师提供了一种更好的控制方式,可以反复发挥其创造力,并确定拍摄的各个方面。创作者可以轻松地进行多种尝试,最终选择最佳的版本。没有实时3D渲染平台,就无法做到这一点。 创意总监Veselin Efremov作为具有游戏开发背景的创作者,将游戏与电影或CG作品的制作方式进行比较,后者的工作方式是十分不便的。游戏开发者已经习惯了实时渲染的自由。Veselin Efremov理所当然地认为,他的电影项目应该是能随手掌控的,可以随时处理电影中的任何给定部分,从相机运动,镜头遮挡到照明和后期处理。无论做什么,在镜头的所有其他组成部分以及整部电影的背景下,都能立即看到动作的结果。 例如,如果改变了灯光,则只需按“播放”,就可以观看灯光修改后的影片效果。从游戏开发的角度来看,很多人会认为这是理所应当的,但在电影制作的要求要严格得多。如今,由于MPC和相关软件工具的先驱,实时渲染技术的发展,虚拟摄影技术得到了越来越多的采用,这样的发展令人感到兴奋。

2020-01-29

【沉浸式艺术】2018年世界各地的沉浸式艺术
by SIGGRAPH Conferences 图片来自SIGGRAPH 2016 Art Gallery 创作者通过数据可视化的设计,借助 实时渲染技术,对庞大的文件进行管理,并用图像识别网络为每张图片提供信息,打造出了震撼的沉浸式空间,让人们体验被图书包围的感觉,并且可以与这些视觉资料元素进行实时互动。 1.美国:Meow Wolf 当然,SIGGRAPH美术馆也将在美国成立-但它绝对不是美国唯一的沉浸式美术馆! Meow Wolf是一家艺术家集体和制作公司,致力于创建大规模的交互式多媒体装置。他们的第一个永久性装置是获得THEA奖的“永恒归宿”,该装置于2016年3月在“权力的游戏”创作者George RR Martin的支持下启动。它目前位于新墨西哥州圣达菲,但计划于2019年扩展到科罗拉多州的丹佛,并于2020年扩展到内华达州的拉斯维加斯。 2.中国:“ 每当星辰变化时 ” GeeksArt的沉浸式数字艺术展览“每当星辰变化时”将于2018年12月23日至2019年3月10日在中国深圳开幕。 展览旨在利用数字技术来感应,网络,光线和声音,创造一个包含宇宙,自然,城市和其他元素的沉浸式空间。通过使用技术,宇宙和自然可以变成“生活艺术”,并且观众可以感受到他们通常不会意识到的幻想世界的连续性。这甚至可能引发访问者思考人与社会之间的关系。 3.日本:MORI Building数码艺术博物馆 MORI Building数码艺术博物馆:teamLab Borderless于2018年初开放,此后已成为日本东京最受欢迎的数字艺术博物馆。 teamLab的使命是探索在我们生活的大部分时间都由技术控制的时代,人类与自然的关系。他们的永久性艺术装置力图消除界限,让参观者以自己的方式探索虚构的美丽世界。 4.法国:“ 克劳德·莫奈:睡莲的痴迷 ”(‘Claude Monet: The Water Lily Obsession) 在法国巴黎的橘园博物馆(Muséede l'Orangerie)上,一种全新的VR体验将游客带到了克洛德·莫奈(Claude Monet)的吉韦尔尼(Giverny)住宅和花园。从创作到展览,沉浸大约八分钟的时间可以追溯到莫奈著名的“睡莲”画作。将于2018年11月14日至2019年3月11日举行“克劳德·莫奈:睡莲迷恋”。 5.英格兰:“ 我们生活在空中 ” 在伦敦西部萨奇画廊(Saatchi Gallery)的下面,游客可以走进一片森林砍伐区,那里长着一棵巨大的红杉树。 “我们生活在空气的海洋中”是艺术团体棉花糖激光盛宴的多感官装置,展览将持续到2019年1月20日。这项工作将 VR技术推向了极限。访客被束缚在包含将带动他们的体验的计算机的安全带中。耳机和各种传感器(包括监视心率的耳夹)已连接,然后访客进入体验。

2020-01-27

实时渲染让人在VR中体验西斯廷教堂
by SIGGRAPH Conferences 尽管SIGGRAPH 2019在洛杉矶市中心举行,但世界一流的体验“ Il Divino:VR中米开朗基罗的西斯廷天花板”将用户带入了梵蒂冈城墙。这种身临其境的体验是专门为会议创建的,将使用全新的Valve INDEX耳机。将游戏技术展示为一种艺术形式,它使观看者有机会站在西斯廷教堂里观赏米开朗基罗的惊世之作。 SIGGRAPH 2019 Games联合主席Chris Evans听到了他对米开朗基罗作品的长期热情,SIGGRAPH如何鼓励艺术与技术的交汇以及他希望参与者从体验中脱颖而出。 SIGGRAPH:将重新创建Sistine Chapel的过程描述为沉浸式体验 克里斯·埃文斯(Chris Evans,CE):西斯廷教堂-特别是米开朗基罗的作品-令人生畏。它以你无法想象的规模压倒一切。20年来,我很荣幸认识一个研究天花板超过五年的人,他将这种激情和热情灌输给我。 15年前,我启动了一个项目,以3D形式创建Sistine天花板,并使其在网上可供人们使用虚拟现实建模语言(VRML)进行了解,这是当时唯一可用的便携式3D格式。 在SIGGRAPH 2017上,“ Il Gigante:米开朗基罗的VR中的大卫”的接待确实激发了我从大学时代找到那些旧的LightWave 3D资源并将其清除的动力。 我使用现代技术来改进自己所拥有的东西,编写了一个Python脚本,将旅游者的照片输入到一个很棒的新型摄影测量软件RealityCapture中。这使我可以将现有的保管库比例更改为大约真实产品的5-10厘米。西斯廷天花板穹顶是一个非常有机且复杂的结构。 西斯廷教堂是世界上被拍照最多的艺术品之一,并且有许多书籍将米开朗基罗的壁画复制到了1:1比例的图像,你可以在其中看到画笔的笔触。多年来,我一直通过书籍和博物馆,图书馆收集高分辨率的扫描图和天花板的照片,例如德国法兰克福的Städel博物馆或伦敦的V&A。 在SIGGRAPH这里,你将看到的演示使用了90多个4K地图,所有地图都在虚拟引擎中 实时渲染。你可以看到画中的每一个裂缝。 SIGGRAPH:在SIGGRAPH 2017上,你介绍了“ Il Gigante:米开朗基罗的VR中的大卫”。是什么激发你为标志性艺术品带来新的生活? 行政长官:我很喜欢米开朗基罗。西斯廷的天花板是一个惊世之作,他让人们对艺术和历史产生兴趣。 SIGGRAPH:你认为梵蒂冈的西斯廷教堂对游客意味着什么?你的经历如何让人联想到同样的感觉?还是你认为自己的经历会引起不同的反应? 行政长官:正如我所说,这种经历完全是压倒性的。米开朗基罗画了6000平方英尺的壁画,每英寸都有300多个人物。每天有超过20,000名游客参观西斯廷教堂。当你进入时,你就被时刻监视者,警卫不断地向人们大喊不要拍照。但这是人们记住自己经历的主要内容之一,欣赏过程却很不愉快。 这很可悲-尤其是警卫大喊“不能拍照!”,因为梵蒂冈在1980年代将天花板的摄影权卖给了日本电视台。在公共领域有500年历史的作品,这个版权不属于任何人,但是确有人讲版权卖出去了!???还打声呵斥不允许拍照 我希望给人们一种体验,让他们可以花时间学习和探索壁画,并了解艺术家和他的时代。我坐在教堂里,欣赏了上世纪最伟大的艺术史学家罗曼·罗兰德(Romain Rolland)或埃德加·温德(Edgar Wind)的作品。我希望为SIGGRAPH的体验者提供一种类似的感觉,并消除一些混乱的神秘面纱。 没有什么可以取代西斯廷教堂。我已经创建了一个相近的替代,这是我的爱好。但这仍然是一个仿品。真实的作品还是很值得你去现场欣赏 SIGGRAPH:观众如何与你的西斯廷教堂互动? 行政长官:通过“ Il Gigante”,我创建了一个脚手架,使体验者可以坐起来,看着大卫。他们可以点击雕像的不同部分并了解它们。他们可以足够靠近以看到各个凿痕。我想将其扩展到西斯廷天花板体验。总共可以单击50多个不同的项目并了解它们,所有这些都是在进行了为时5分钟的初步导览以了解艺术家和作品背景之后进行的。 体验者可以像梵蒂冈的温室保护者一样乘坐更靠近的高空作业平台,也可以爬到米开朗基罗的木制脚手架上了解如何在几英寸远的地方喷涂天花板。 SIGGRAPH:是什么激发了你为SIGGRAPH 2019创造这种体验的? CE:“ Il Gigante”真的很受欢迎。看到这么多人对学习和体验我热衷的东西感兴趣,我感到很惊讶,但是我不确定它是否会引起别人的共鸣。 ……

2020-01-25

【Unity游戏动画】Unity中的东京夜景:提示和技巧
Unity中的东京夜景: 提示和技巧 CG艺术家 加里·唐(Gary Tang)简要介绍了他的《东京之夜》环境的制作过程,这里充满了用 Unity,Maya和Substance 介绍 大家好,我叫Gary Tang,我是FuseFX的CG 通才。我专注于建模,纹理化,lookdev和照明。过去,我从事过诸如SuperGirl,侏罗纪公园:Camp Cretacious,速度与激情:间谍赛车手等项目的工作。与我合作的公司包括DreamWork Animation,Encore VFX,Blur Studio,Mocean。 东京之夜:创意 我一直着迷于日本的夜景:不同的灯光标志常常使场景看起来像是科幻电影的镜头。 我一直在学习Unity,并且需要一个项目来测试新的引擎管道。过去,我还创建了一个Tokyo street项目,并认为这将是一个起点。 东京街 造型 我重复利用了以前项目中的一些资产,但是这里约有80%是还新资产或经过优化后的资产。我喜欢将资产从一个项目升级到另一个项目。 尽管我没有概念艺术的起点,但我收集了许多不同的参考资料和想法,为自己提供了项目最终完成的方向。 当我进行基本的遮挡时,我会从最接近相机的地方开始添加细节。后面的建筑物将逐渐变得越来越简单,而最远的建筑物实际上只是盒子。 我用来简化建模过程的策略是完成一栋建筑物并对其进行抛光,然后在第二栋建筑物上重用一半的资源,即窗户,墙壁或门。您可能会注意到,场景中的许多地理区域只是缩放到不同大小或使用不同颜色/材质的同一模型。 规模 在我的 Maya场景中,我导入了几个人员资产并将它们分散在场景中以供参考。在Unity中,我使用了“体积雾”和“景深”来使场景看起来很大。我还对偏远的背景建筑使用了强迫透视法。 纹理化 我使用了Substance Painter作为纹理。以我的经验,Substance Painter非常适合用于此类纹理化环境。由于一半以上的资产是重复资产,因此在现场复制所有资产之前,请务必先对所有资产进行 UV处理,这一点很重要。这样一来,一个着色器就可以在所有的灯,灯柱,窗户等上面工作,并且看起来不现实的几何形状可以分解为一些简单的东西,例如建筑组,灯柱组等。 就像进行建模一样,我大部分时间都在对靠近观看者的建筑物进行纹理处理和细节处理。模型越靠后,它们使用的细节和分辨率越少。实际上,远处的建筑物甚至都没有纹理。他们在Unity中使用过程着色器,因为如果纹理化了,它们的细节甚至都不会读取。 我在Substance中设置的Rain和Dirt着色器是最重要的。为了确保所有带纹理的资产读取一致,我制作了一个着色器,为它们提供了相同水平的污垢,灰尘和磨损。雨着色器是我的最爱:我使用雨粒子画笔为场景中的所有资产创建雨效果,从而为场景增添了真实感。 照明和后期处理 至于照明,我在 Unity中使用了所有本机照明。聚光灯用于路灯。许多照明也来自照明的餐厅和商店的招牌,并且这些照明都是由具有光发射的几何形状来照明的。至于后期处理,我使用了Bloom使灯光更加饱和,使用了色彩平衡进行最终调整,并使用AO为几何图形提供了更多阴影。 如您在这里看到的,我放置了很多灯光,幸运的是Unity可以很好地处理许多灯光。 最后的润色 为了获得最终外观,我在场景照明中进行了很多工作,以使其具有半未来感的外观。由于我不打算重新创建已经存在的内容,因此我在后台添加了更多具有未来感的建筑物。不同的商店标牌和餐厅广告牌在分解场景并使场景变得更加繁忙方面发挥了巨大作用,以便观众花一些时间检查所有漂亮的细节。 使用HDRP 渲染时,您可以获得更好的照明和阴影质量。我在Unity中以3D场景启动该项目,并在完成所有纹理和照明后将其转换为HDRP。这样做之后,我看到了整个场景的显着改善,就好像您认为将PS2游戏环境变成PS4游戏质量环境一样。如果要重新开始该项目,则实际上是使用Unity HDRP启动该项目,因为当我将场景升级到HDRP时,我不得不回去并修复许多着色器,因为它们不再兼容。

2020-01-23

热门标签
热门资讯
往期资讯