行业资讯GPU渲染

云渲染:从老式渲染农场到基于云的渲染系统
云渲染?为什么有必要呢? 渲染迪士尼-皮克斯电影的每一帧大约需要24小时。事实上,皮克斯动画工作室(Pixar Animation Studios)最近在一台拥有55000个内核的超级计算机上渲染了超级英雄电影《大英雄6》(Big Hero 6)。 "我们已经说过很多很多次了。我们在测试版渲染器上制作了这部电影"– 安迪·亨德里克森,迪士尼动画首席技术官 安迪提到的渲染器是Hyperion,这是皮克斯的内部渲染软件,可以模拟现实世界的闪电。闪电般的伎俩和使用旧金山市的真实世界数据花费了他们巨大的渲染时间。因此,他们使用了一个分布在四个地理位置的超级计算机集群。 值得庆幸的是,独立动画师和小型工作室如果想渲染他们的电影和视觉特效镜头,就不必这样做或等待数年。 但在我们告诉您之前,让我们回答以下问题: 什么是渲染? 渲染是利用应用程序从模型生成二维或三维图像所涉及的过程。渲染对于建筑设计、视频游戏和动画电影、模拟器、电视计算机图形和样式可视化是必需的。使用的技术和功能因项目而异。渲染有助于提高效率并降低设计成本。 渲染分为两类:预渲染和实时渲染。两者之间的显著区别在于图像的计算和最终确定的速度。 图片来源:Unity 使用交互式图形和游戏的突出渲染技术,必须快速创建图像。由于此类环境中的用户交互性很高,因此需要实时创建映像。专用图形硬件和可用信息的预编译提高了 实时渲染的性能。 电影《蜘蛛侠:英雄远征》的预渲染剧照 这种渲染技术用于速度不是优先事项的环境中,因此图像计算是使用多核中央处理单元而不是专用图形硬件执行的。这种技术通常用于动画和视觉特效,其中照片级真实感必须达到最佳标准。 3D/CGI 工作渲染 3D渲染是计算机从3D场景(多边形,材质和照明)中获取原始信息并计算最终结果的过程。输出通常是单个图像或一系列图像渲染和编译在一起。 渲染通常是3D创建过程的最终阶段,例外情况是,如果您要将渲染带到 Photoshop 中进行后期处理。 如果要渲染动画,它将导出为视频文件或一系列图像,稍后可以拼接在一起。一秒钟的动画通常至少有 24 帧,因此一分钟的动画有 1440 帧要渲染。这可能需要相当长的时间。 通常认为有两种类型的渲染: • 中央处理器渲染 • GPU 渲染(适用于实时渲染) 两者的区别在于两个计算机组件本身之间的差异。 CPU通常经过优化,可以同时运行多个较小的任务,而GPU通常可以更好地运行更复杂的计算。 通常,GPU渲染速度远远快于CPU渲染速度。这就是现代游戏以大约60 FPS的速度运行的原因。CPU 渲染最擅长从光照和更复杂的纹理算法中获得更准确的结果。 但是,在现代渲染引擎中,除了在最复杂的场景中,这两种方法之间的视觉差异几乎不明显。 中央处理器渲染 CPU渲染(有时称为"预渲染")是指PC使用CPU作为主要组件进行计算。 这是电影制片厂和建筑可视化艺术家普遍青睐的技术。 这是由于它在制作逼真的图像时具有准确性,并且渲染时间对于这些行业来说并不是一个相当大的问题。 虽然渲染时间可能会有很大差异,并且可能会变得非常长。 具有平面照明的场景和具有简单形状的材质可以在几秒钟内渲染出来。但是,具有复杂 HDRI 照明和模型的场景可能需要数小时才能渲染。 一个极端的例子是皮克斯2001年的电影《怪物公司》(Monsters Inc.)。 怪物公司 主角 Sully 有大约 540 万根头发,这意味着在屏幕上与他的场景每帧需要长达 13 个小时才能渲染! 为了应对这些较长的渲染时间,请使用 渲染农场。 进入实时云渲染的世界 实时云渲染目前看来是最有可能获得如此大算力的解决方案,即在远程的服务器中完成渲染再通过互联网传输给用户终端。但这同时也依赖云端极其庞大的计算系统和优质的网络来满足大量用户同时渲染的需求。目前AMD和OTOY等厂商都在致力于该项技术的研究。 3DCAT基于云端强大的图形渲染算力,渲染XR应用并实时推送到终端,为用户提供公有云+私有云解决方案 。 3DCAT实时渲染公有云 3DCAT实时渲染公有云基于云计算理念,将XR应用部署在云端运行,云端资源进行图形数据的实时计算和输出。并通过3DCAT自主研发的RayStreaming协议,把运行结用“流”(Streaming)的方式高速并低延迟推送到终端,终端用户可随时随地交互式访问各种XR应用,更具沉浸式和可访问性。 3DCAT实时渲染云私有化 3DCAT实时渲染云私有化部署方案将三维内容部署在私有云上,利用私有云进行实时渲染,克服终端运行困难的瓶颈。通过局域网方式访问相应资源,实现私有化部署。 3DCAT实时渲染私有化方案适合对画质、安全性、稳定性要求高的用户,在局域网环境下,私有化方案能够最大限度发挥实时渲染的平台优势,让用户获得更好的体验。 注册立赠实时云渲染免费体验: https://app.3dcat.live/register

2022-03-15

【像素流送】像素流送的邪恶经济学(上)
像素流送经济学... 通常,在谈论像Google Stadia之类的 像素流解决方案时,记者和行业参与者提出的大多数问题仍然集中在等待时间和图像质量上。 尽管这些确实是像素流解决方案试图与既定平台竞争的主要挑战,但另一个挑战(即此类服务背后的经济性)通常被Google之类的人遗忘或视为易于解决。 不过,在使用这种技术时,它们确实仍然是一个重要的主题(即使比延迟更重要),甚至Google也可能会花费大量自己的资源来解决。 可以说Google有足够的财力不担心几年来的亏损,但请记住,在某个时候,最终有人会质疑某项业务是否确实值得。对于Google来说,这不是第一个吧?对不对 那么,对于Google Stadia和其他 Pixel Streaming服务,我们需要重点关注哪些经济学方面的内容?这里实际上有3个角度: - 首先是内容的经济性。 - 然后是Google需要为Stadia设置的高端游戏服务器的经济性(请相信我,这绝对不便宜……甚至对于Google而言)。 - 最后,您必须考虑这种服务为用户带来的经济效益,毕竟,最终必须有人付账。 服务器,什么服务器? Google的原始家用服务器。聪明才智始终是他们的核心力量。 尽管Google以其服务器构建能力而闻名,但高端游戏硬件本身就是一个完全不同的物种,与任何游戏硬件一样,GPU代表了大部分投资。 因此,谷歌已经与AMD合作建立了定制的 游戏GPU,以为其Stadia服务器提供动力。 当然,人们会期望Google为Stadia的用户获得如此大的订单,这笔费用相当可观,对吧? 让我们来看看… 在Stadia像素流送服务宣布期间,如果您使用展示的地图作为参考(请参见下图),则假定所有这58个区域都将拥有Stadia的服务器,这些服务器能够分别处理至少50.000个并发用户(暂时保守)或总计290万并发用户(仅出于比较目的,Steam每天平均获得约10到1500万并发用户)。对于Google而言,这将意味着290万个定制AMD GPU,这对于任何OEM来说都是相当大的数目(英伟达必须为此感到垂涎三尺)。 Stadia揭幕期间的Google基础架构图 但是,您猜还有谁还是AMD在游戏GPU方面的巨大客户?是的,微软和索尼的老游戏伙伴。两者都已经使用定制AMD GPU数年了(即Xbox的最后三代和Playstation的最新一代)。 尽管Google可能已经准备好订购几百万个AMD GPU,但微软和索尼却处在完全不同的水平,它们的历史控制台总数超过3亿个,其中最新一代的销量超过1亿个。其中具有自定义AMD GPU,与Google所订购的相同。 因此,我怀疑有人会认为Google在高端游戏硬件方面比Microsoft或Sony更专业。因此,如果您认为微软已经公开承认Xbox One的制造成本高达400美元以上,并且实际上是亏本出售,那么相信Google至少会花掉同样多的钱就可以了。 还要考虑到Google(可能会很聪明,因为我们将从上述两个玩家那里获得新一代游戏机)希望通过在不久的将来保证以60fps的速度播放4K(甚至8K)游戏流而超越这一范围,因此已经使用了比当前控制台至少强大60%的GPU。即使每个并发用户400美元,我们仅在硬件投资上就至少要花1.1Bi美元……这就是事情开始变得昂贵的原因……甚至对于Google而言。 比最新一代的控制台要快得多……那一定要花钱,对吧? 最后,请考虑将这些投资仅用于服务的硬件方面。不要忘记,运营费用也是此类服务成本中相当大的一部分。拥有11个teraflop GPU很不错,但是这些东西消耗了很多功率。加上物理空间成本(用户端不存在),维护和工程团队,以及每当其中一个用户决定播放4k信号时,将这些4k信号流传输给用户的恒定带宽成本。

2020-10-15

热门标签
热门资讯
往期资讯
业务咨询:400-8037-298