行业资讯云仿真

【虚拟仿真】虚拟仿真技术的行业现状及趋势分析
虚拟仿真是什么? 虚拟仿真,又称计算机仿真,是指利用计算机生成三维动态实景,对系统的结构、功能和行为以及参与系统控制的人的思维过程和行为进行动态性、逼真的模仿。最早应用在军事领域,如阿波罗登月计划、洲际导弹的研制、核电站运行等方面。到上世纪70年代中期,民用领域才开始出现 虚拟仿真技术,并从1980年左右开始,借助计算机信息技术的发展大规模地应用于人们生产、生活的各个方面,如仪器仪表、虚拟制造、电子产品设计、仿真训练等。 虚拟仿真的行业现状 虚拟仿真行业高度依赖各种先进软硬件设备,包括:高性能计算机、通用软件及操作系统、数据处理芯片、专用电子模块及电子元器件等,因此,行业上游主要是可承载虚拟仿真应用系统软硬件设备供应商。 与传统的内容和知识的表现形式(如:文字、图片、视频)相比,虚拟仿真最大特点是使用者可以进行交互,因此,可以作为增强教学培训和演练效果的有效手段,解决培训与演练中“三高”(高危险、高成本、高污染)与“四难”(难看到、难动作、难进入、难再现)问题。因此,在实践操作要求比较高的专业领域中虚拟仿真的应用比较广泛,行业下游主要是军事训练、工业设计、安全演练、技术培训等相关企业。 传统的虚拟仿真产业的业务模式多以线下的B2B项目类型为主。系统开发者为客户提供软硬件解决方案,通常由项目需求方通过招标的方式发布系统采购需求,系统开发者通过投标的方式得到项目,并签订合同。经过一定的开发周期,系统开发者将软硬件系统部署到需求方指定的地点,并负责后期的培训、维护、升级等工作。在这种模式下,产业的价值链较为简单,仅包括需求方和开发者,即需求方提出需求——开发者完成开发——需求方使用。开发者为需求方提供满足需求的软硬件系统,需求方付给开发者相应的费用。 一方面, 虚拟仿真系统价格高昂,经费规模少则几百万,多则上千万,因此主要应用于付费能力强的专业领域;另一方面,传统的虚拟仿真系统多局限于线下的应用,受地域、设备数量等限制,服务人群较少,系统的投入产出比不高。这就是虚拟仿真行业在各行各业广受重视却仍然不温不火,内容无法爆发式的增长、应用无法爆发式推广的主要原因。 虚拟仿真的行业趋势 作为一种内容和知识的载体,虚拟仿真的发展趋势可以从内容的表现形式和传播方式两个维度来分析。 首先,随着计算机软硬件技术的发展,互联网内容的表现形式不断进化,从文字、到图片、到音视频,但都只能单向的向用户传输信息,人们只能被动的接受内容的传播。虚拟仿真的出现为人们展现了一种全新的内容表现形式,它具有真实性和交互性,使用户不再是被动的接受内容,而是身临其境的感知和支配这些内容。因此,虚拟仿真逐渐开始应用于与人们生活紧密相关的领域,如:文化、娱乐、科普、教育等。未来,这种交互式的内容表现形式,有望成为人们获取内容和知识的主流方式。 其次,文字、图片、视频这几种表现形式,都经历了从介质拷贝、网络下载到在线实时浏览三个阶段。其中,互联网的传播,才是当前内容极大的丰富根本原因。但是虚拟仿真这种表现形式,却还停留在介质拷贝或者至多网络下载的阶段,远做不到在线实时浏览,因此限制了内容的发展。其主要原因是虚拟仿真系统计算要求高、数据量大、需要专用的图形计算设备,一般只存在于线下的、单机模式的应用中,不具备嫁接到互联网环境的条件,无法实现内容的广泛传播和快速积累,严重约束了 虚拟仿真的应用推广和市场扩大。 了解更多虚拟仿真资讯,请登录3DCAT实时渲染云平台官网:www.3dcat.live

2020-10-23

【虚拟仿真】虚拟仿真的发展历史
虚拟仿真的发展历程是怎样的? 虚拟仿真是如何开始的,通常伴随着发明它的人和/或提出了虚拟仿真一词。 谁创造了虚拟仿真这个词?以及是谁发明的虚拟仿真?本文着眼于这一切的开始。 虚拟仿真被认为始于1950年代,但其早期元素可以追溯到1860年代,并且早于数字技术的发展。 虚拟仿真的早期艺术实例 360度大型壁画就是一个例子,它使观察者能够在简单的水平上与艺术品互动。在法国剧作家安东宁·阿陶(Antonin Artaud)的前卫作品中可以找到更多的艺术实例,他认为幻觉与现实是一回事。他认为,剧院的观众应该停止怀疑,并认为表演是现实的。 早期模拟装置 快进到1920年代,埃德温·林克(Edwin Link)开发了世界上第一个飞行模拟器。这被设计为新手飞行员的训练设备。 感官 其次是Morton Heilig设计的以互动影院体验形式出现的第一类多媒体设备,被称为“Sensorama”。虚拟仿真的这种早期形式是在1957年发明的,但直到1962年才获得专利。 Sensorama包含以下元素: - 封闭式隔间内的观看屏幕,显示立体图像。 - 摆动风扇 - 音频输出(扬声器) - 散发气味的设备 观众将坐在转椅上,使他们能够面对此屏幕。他们将看到这些立体图像,这些图像给人以深度幻觉,并具有从不同角度观看事物的能力。 第一台头戴式显示器 大约在这个时候,Philco Corporation的工程师开发了第一台头戴式显示器(HMD)。该标题为“ Headsight”,旨在供需要在夜间飞行时能够看到周围环境的直升机飞行员使用。 1968年,伊凡·萨瑟兰(Ivan Sutherland)创造了终极显示器:连接到计算机的头戴式显示器(HMD),使佩戴者能够看到虚拟世界。但是,由于显示器重量巨大,因此必须将其固定在悬挂装置上。 第一张互动地图 1970年代,麻省理工学院(MIT)的研究人员开发了科罗拉多州阿斯彭的第一张交互式地图。这是一种创新的多媒体形式,使人们可以漫步在阿斯彭镇。 虚拟仿真和HCI 迈向1980年代,在NASA的项目中使用虚拟仿真实以及研究新形式的人机交互(HCI)。这是由迈克尔·麦格里维博士(Michael McGreevy)进行的,他是该领域的权威以及其他一些开发了创新性 虚拟仿真系统的领域。 1990年代的虚拟仿真 Jaron Lanier的形式进一步提高了虚拟仿真的形象,他提高了公众对这种新技术形式的认识。他与汤姆·齐默曼(Tom Zimmerman)一起在1990年代推销了一系列虚拟仿真设备。 虚拟仿真在整个1990年代一直很流行,但是围绕这项技术的炒作产生了不利影响,并导致其普及率下降。许多人认为虚拟仿真没有兑现其最初的承诺,结果,他们开始失去兴趣。 虚拟仿真与当今 研究人员,技术人员和任何在虚拟仿真领域工作的人都非常意识到炒作的危险,因此,往往会轻视其功能。 他们通常回避使用“虚拟仿真”一词,而不是带有较少负面含义的“虚拟环境”。但是,可以使用多种方式使用虚拟仿真并使我们受益。 了解更多 虚拟仿真资讯,登录3DCAT实时渲染平台:www.3dcat.live

2020-10-22

【虚拟仿真】什么是虚拟仿真?
虚拟仿真的定义来了。自然,从定义分为两个,“虚拟”与“现实”。“虚拟”的定义近在咫尺,而现实就是我们作为人类所经历的。因此,“虚拟仿真”一词基本上意味着“接近现实”。当然,这可能意味着任何东西,但它通常指的是特定类型的现实仿真。 我们通过感知系统了解世界。在学校,我们都知道我们有五种感觉:味觉,触觉,气味,视觉和听觉。但是,这些只是我们最明显的感觉器官。事实是,人类具有比这更多的感觉,例如平衡感。这些其他的感官输入,加上大脑对感官信息的一些特殊处理,可确保我们从环境到大脑都拥有丰富的 信息流。 我们对现实的了解都来自我们的感官。换句话说,我们对现实的整体体验只是感觉信息和大脑对信息的感知机制的结合。可以说,如果您可以用虚构的信息来表达自己的感觉,那么您对现实的感知也会随之改变。您将看到的现实版本并不存在,但从您的角度来看,它将被视为真实。我们将其称为虚拟仿真。 因此,总而言之,虚拟仿真需要通过计算机生成的虚拟环境呈现我们的感官,我们可以以某种方式对其进行探索。 用技术术语来说… 用技术术语回答“什么是虚拟仿真”很简单。虚拟仿真是一个术语,用于描述可由人探索和交互的三维计算机生成的环境。该人成为该虚拟世界的一部分,或沉浸在该环境中,并且在那里能够操纵物体或执行一系列动作。 虚拟仿真如何实现? 尽管我们在网站上的其他地方谈论过几种虚拟仿真的历史早期形式,但如今,通常使用计算机技术来实现虚拟仿真。有许多用于此目的的系统,例如耳机,全向跑步机和专用手套。这些实际上是用来共同激发我们的感官,以创造现实的幻觉。 这比听起来要困难得多,因为我们的感官和大脑已经进化为我们提供了良好的同步化和介导的体验。如果有什么差别的话,我们通常可以说出来。在这里,您会听到 沉浸式和现实主义等术语进入你们之间的对话。这些使令人信服或令人愉悦的虚拟仿真体验与令人不快或不愉快的体验相分离的问题,部分是技术性的,部分是概念性的。虚拟仿真技术需要考虑到我们的生理机能。例如,人类视野看起来不像视频帧。我们(或多或少)具有180度的视野,尽管您并不总是有意识地意识到周围的视野,但如果消失了,您会注意到。同样,当您的眼睛和耳朵中的前庭系统告诉您发生冲突时,也会引起晕车。 如果虚拟仿真的实现设法正确地实现硬件、软件和感官同步性的结合,则可以实现一种被称为存在感的东西。 为什么会有虚拟仿真? 开发虚拟仿真的价值在哪?潜在的娱乐价值是显而易见的。沉浸式电影和视频游戏就是很好的例子。娱乐业毕竟是一个数十亿美元的市场,消费者总是热衷于新颖性。虚拟仿真还具有许多其他各种各样的应用程序。 虚拟仿真有各种各样的应用程序,包括: - 建筑 - 运动 - 药物 - 艺术 - 娱乐 虚拟仿真可以在这些领域带来令人兴奋的新发现,这些发现会影响我们的日常生活。 在现实中做某事太危险,昂贵或不切实际的地方,虚拟仿真就是答案。从见习战斗机飞行员到医疗应用见习外科医生, 虚拟仿真使我们能够承担虚拟风险,从而获得现实世界的经验。随着虚拟仿真成本的下降以及它成为主流的趋势,您可以期待越来越多的用途,例如教育或生产力应用程序。虚拟仿真及其表亲增强现实可以从根本上改变我们与数字技术对接的方式。 虚拟仿真系统的功能 有许多不同类型的 虚拟仿真系统,但是它们都具有相同的特征,例如允许人们查看三维图像的能力。 另外,随着人在周围环境中移动,它们也会发生变化,这与他们视野的变化相对应。目的是使人的头部和眼睛的运动与适当的反应(例如,知觉改变)之间无缝衔接。这样可以确保虚拟环境既逼真又令人愉悦。 当人探索周围环境时,虚拟环境应实时提供适当的响应。当人的动作与系统响应或延迟之间存在延迟,从而破坏他们的体验时,就会出现问题。该人意识到他们处于人造环境中,并相应地调整了自己的行为,从而形成了一种僵硬的,机械的交互形式。 目的是实现一种自然,自由流动的互动形式,从而带来令人难忘的体验。 总结 虚拟仿真是一种虚拟环境的创建,以我们感觉到的方式呈现给我们的感觉,就好像我们真的在那里一样。它使用多种技术来实现此目标,并且是一项技术复杂的壮举,必须考虑到我们的感知和认知。它既有娱乐性又有严肃的用途。该技术变得越来越便宜,越来越普及。可以预见的是,由于虚拟仿真的可能性,未来会看到该技术的更多创新用途,这也许是我们交流和工作的基本方式。 了解更多虚拟仿真资讯,请登录3Dcat实时渲染云平台: www.3dcat.live

2020-10-21

【虚拟仿真】用VR感受马丁·路德·金1963年的著名演讲:我有一个梦想(上)
TIME Studios推出了突破性的沉浸式项目The March,用 虚拟仿真再现了马丁·路德·金(Martin Luther KingJr)1963年在华盛顿的历史性游行。 封面为数字渲染的马丁·路德·金的《时代周刊》特别刊中,独家报道了本次 VR项目的首次呈现。 展览The March(游行)于2020年2月28日在伊利诺伊州芝加哥的DuSable非洲裔美国人历史博物馆对外开放。 《时代周刊》杂志社旗下曾获艾美奖的部门TIME Studios推出了开创性的沉浸式项目The March,将1963年为争取工作和自由的游行,以及马丁·路德·金的标志性演讲“I Have a Dream”(我有一个梦想)首次带入虚拟世界。 The March由TIME杂志社的艾美奖获奖者Mia Tramz和行业领先的沉浸式导演Alton Glass,以及本项目的执行制片人和叙述者Viola Davis共同制作,通过先进的VR、人工智能、电影制作流程和机器学习等技术,在虚拟仿真中再现最真实的人物表现。 经过精心的研究和TIME的新闻精神,The March活动在知识产权管理公司(Intellectual Properties Management, Inc. -- 马丁·路德·金的遗产授权商)的支持下创建,该公司授予了TIME杂志社该项目的开发权。 The March于2020年2月28日在伊利诺伊州芝加哥的杜萨布尔非裔美国人历史博物馆首次亮相,这是该博物馆的首次体验式展览。展览将持续到2020年11月。 该项目使用了那些技术? 马丁·路德·金是使用Digital Domain(以下简称为DD)的Masquerade(假面舞会)系统创建的,该系统结合了高端的动作捕捉(身体和面部的同时动作捕捉),机器学习和专有软件来创建3D的基础模型。艺术家们使用Maya和Houdini完善了马丁·路德·金的身体和面部,然后将模型添加到Unreal Engine(3dcat支持Unreal Engine 实时渲染)National Mall版本中。 同时我们还开发了 实时渲染工具,在基于位置的体验背景下运行,从而确保观众可以使用单个GPU看到最真实的金博士,这意味着不再需要像背包一样笨重的穿戴设备。体验过程可实现无线操作,无需与电脑捆绑在一起。通过使用无线技术,体验者能够自由移动,更加自如,不受年龄和活动能力的限制。 如何做出虚拟的金博士? DD从选演员开始,找到了一个身材和体形与1963年8月时候的金博士相似的演员,以重塑他的身体动作。金博士的遗产管理公司推荐了专业演说家斯蒂芬·弗格森(Stephon Ferguson),在过去的十年中,他一直在公开演说“我有一个梦想”,他不仅可以匹配体态特征,还能为金博士在演讲中的手势提供现实的参考。我们运用DD的Masquerade系统录制了斯蒂芬的表演,Masquerade系统是一个动作捕捉系统,能够追踪对象身体和面部的微小细节。与机器学习相结合的面部扫描过程,还需要另一个人来出演,为了能将小到毛孔的细节构建到基础模型中。通过这些扫描,制作团队可以确定眼睛的位置,头骨形状,颧骨和鼻梁的位置,以及肤色,匹配到金博士的基础模型中。然后将这些元素提供给DD的艺术家,他们在模型上(已完成50%)添加金博士的其他特征。这个过程中,制作团队参考了大量的历史图片和影像资料。 人的身体和面部每个月都在变化,所以制作团队只参照演讲当天的金博士。而且根据不同的角度,我们导出了尽可能多的照片。很多参考资料都是黑白的,而VR的体验是全彩的。在 实时3D Deep Dive中动作捕捉做出来的效果还原了金博士的特征和动作。在Dimensional Imaging中,DD追踪了斯蒂芬在说出某些单词时面部和眼睛的移动。为了动作捕捉,我们给了他一些不想关的句子让他念,旨在捕捉嘴巴的动作并激活脸部所有肌肉。在Dimensional Image(Di4D)动捕之后,斯蒂芬又来到了DD PCS(DD动作捕捉台),我们在他的脸上画了一个点,并为他安装了头戴式摄像头(HMC)。这些画在脸上的标记,能够正好匹配到DD的头戴设备中的大约190个点,能够捕捉到60帧每秒的画面。 在Di4D中斯蒂芬也做了同样的表演。将HMC中的动作捕捉和Di4D的动作捕捉导入DD编写的机器(ML)之中,制作团队便能够快速,高精度地将2D视频数据与3D模型数据相关联。然后,斯蒂芬穿着运动捕捉服,完整朗诵市场16分钟的“我有一个梦想”。参考视频资料,斯蒂芬模仿金博士的动作和语言,完成演讲。DD使用此次面部和身体的捕捉,将他的面部表情同步并映射到金博士的电子人物上,动画团队观察并调整了他的表情以使二者匹配。ML软件为动画师提供了一个绝佳的起点,动画师花费了大量时间调整虚拟人物的细微差别。特效团队再将捕捉到的身体和面部的动作添加在衣服的动画之中,给最后的效果添加了一些程序性的动态效果。 (未完待续)

2020-03-13

业务咨询:400-8037-298