3DCAT 二维码

扫一扫 立即咨询

行业资讯虚拟仿真

【虚拟仿真】虚拟仿真的发展历史
虚拟仿真的发展历程是怎样的? 虚拟仿真是如何开始的,通常伴随着发明它的人和/或提出了虚拟仿真一词。 谁创造了虚拟仿真这个词?以及是谁发明的虚拟仿真?本文着眼于这一切的开始。 虚拟仿真被认为始于1950年代,但其早期元素可以追溯到1860年代,并且早于数字技术的发展。 虚拟仿真的早期艺术实例 360度大型壁画就是一个例子,它使观察者能够在简单的水平上与艺术品互动。在法国剧作家安东宁·阿陶(Antonin Artaud)的前卫作品中可以找到更多的艺术实例,他认为幻觉与现实是一回事。他认为,剧院的观众应该停止怀疑,并认为表演是现实的。 早期模拟装置 快进到1920年代,埃德温·林克(Edwin Link)开发了世界上第一个飞行模拟器。这被设计为新手飞行员的训练设备。 感官 其次是Morton Heilig设计的以互动影院体验形式出现的第一类多媒体设备,被称为“Sensorama”。虚拟仿真的这种早期形式是在1957年发明的,但直到1962年才获得专利。 Sensorama包含以下元素: - 封闭式隔间内的观看屏幕,显示立体图像。 - 摆动风扇 - 音频输出(扬声器) - 散发气味的设备 观众将坐在转椅上,使他们能够面对此屏幕。他们将看到这些立体图像,这些图像给人以深度幻觉,并具有从不同角度观看事物的能力。 第一台头戴式显示器 大约在这个时候,Philco Corporation的工程师开发了第一台头戴式显示器(HMD)。该标题为“ Headsight”,旨在供需要在夜间飞行时能够看到周围环境的直升机飞行员使用。 1968年,伊凡·萨瑟兰(Ivan Sutherland)创造了终极显示器:连接到计算机的头戴式显示器(HMD),使佩戴者能够看到虚拟世界。但是,由于显示器重量巨大,因此必须将其固定在悬挂装置上。 第一张互动地图 1970年代,麻省理工学院(MIT)的研究人员开发了科罗拉多州阿斯彭的第一张交互式地图。这是一种创新的多媒体形式,使人们可以漫步在阿斯彭镇。 虚拟仿真和HCI 迈向1980年代,在NASA的项目中使用虚拟仿真实以及研究新形式的人机交互(HCI)。这是由迈克尔·麦格里维博士(Michael McGreevy)进行的,他是该领域的权威以及其他一些开发了创新性 虚拟仿真系统的领域。 1990年代的虚拟仿真 Jaron Lanier的形式进一步提高了虚拟仿真的形象,他提高了公众对这种新技术形式的认识。他与汤姆·齐默曼(Tom Zimmerman)一起在1990年代推销了一系列虚拟仿真设备。 虚拟仿真在整个1990年代一直很流行,但是围绕这项技术的炒作产生了不利影响,并导致其普及率下降。许多人认为虚拟仿真没有兑现其最初的承诺,结果,他们开始失去兴趣。 虚拟仿真与当今 研究人员,技术人员和任何在虚拟仿真领域工作的人都非常意识到炒作的危险,因此,往往会轻视其功能。 他们通常回避使用“虚拟仿真”一词,而不是带有较少负面含义的“虚拟环境”。但是,可以使用多种方式使用虚拟仿真并使我们受益。 了解更多 虚拟仿真资讯,登录3DCAT实时渲染平台:www.3dcat.live

2020-10-22

【虚拟仿真】什么是虚拟仿真?
虚拟仿真的定义来了。自然,从定义分为两个,“虚拟”与“现实”。“虚拟”的定义近在咫尺,而现实就是我们作为人类所经历的。因此,“虚拟仿真”一词基本上意味着“接近现实”。当然,这可能意味着任何东西,但它通常指的是特定类型的现实仿真。 我们通过感知系统了解世界。在学校,我们都知道我们有五种感觉:味觉,触觉,气味,视觉和听觉。但是,这些只是我们最明显的感觉器官。事实是,人类具有比这更多的感觉,例如平衡感。这些其他的感官输入,加上大脑对感官信息的一些特殊处理,可确保我们从环境到大脑都拥有丰富的 信息流。 我们对现实的了解都来自我们的感官。换句话说,我们对现实的整体体验只是感觉信息和大脑对信息的感知机制的结合。可以说,如果您可以用虚构的信息来表达自己的感觉,那么您对现实的感知也会随之改变。您将看到的现实版本并不存在,但从您的角度来看,它将被视为真实。我们将其称为虚拟仿真。 因此,总而言之,虚拟仿真需要通过计算机生成的虚拟环境呈现我们的感官,我们可以以某种方式对其进行探索。 用技术术语来说… 用技术术语回答“什么是虚拟仿真”很简单。虚拟仿真是一个术语,用于描述可由人探索和交互的三维计算机生成的环境。该人成为该虚拟世界的一部分,或沉浸在该环境中,并且在那里能够操纵物体或执行一系列动作。 虚拟仿真如何实现? 尽管我们在网站上的其他地方谈论过几种虚拟仿真的历史早期形式,但如今,通常使用计算机技术来实现虚拟仿真。有许多用于此目的的系统,例如耳机,全向跑步机和专用手套。这些实际上是用来共同激发我们的感官,以创造现实的幻觉。 这比听起来要困难得多,因为我们的感官和大脑已经进化为我们提供了良好的同步化和介导的体验。如果有什么差别的话,我们通常可以说出来。在这里,您会听到 沉浸式和现实主义等术语进入你们之间的对话。这些使令人信服或令人愉悦的虚拟仿真体验与令人不快或不愉快的体验相分离的问题,部分是技术性的,部分是概念性的。虚拟仿真技术需要考虑到我们的生理机能。例如,人类视野看起来不像视频帧。我们(或多或少)具有180度的视野,尽管您并不总是有意识地意识到周围的视野,但如果消失了,您会注意到。同样,当您的眼睛和耳朵中的前庭系统告诉您发生冲突时,也会引起晕车。 如果虚拟仿真的实现设法正确地实现硬件、软件和感官同步性的结合,则可以实现一种被称为存在感的东西。 为什么会有虚拟仿真? 开发虚拟仿真的价值在哪?潜在的娱乐价值是显而易见的。沉浸式电影和视频游戏就是很好的例子。娱乐业毕竟是一个数十亿美元的市场,消费者总是热衷于新颖性。虚拟仿真还具有许多其他各种各样的应用程序。 虚拟仿真有各种各样的应用程序,包括: - 建筑 - 运动 - 药物 - 艺术 - 娱乐 虚拟仿真可以在这些领域带来令人兴奋的新发现,这些发现会影响我们的日常生活。 在现实中做某事太危险,昂贵或不切实际的地方,虚拟仿真就是答案。从见习战斗机飞行员到医疗应用见习外科医生, 虚拟仿真使我们能够承担虚拟风险,从而获得现实世界的经验。随着虚拟仿真成本的下降以及它成为主流的趋势,您可以期待越来越多的用途,例如教育或生产力应用程序。虚拟仿真及其表亲增强现实可以从根本上改变我们与数字技术对接的方式。 虚拟仿真系统的功能 有许多不同类型的 虚拟仿真系统,但是它们都具有相同的特征,例如允许人们查看三维图像的能力。 另外,随着人在周围环境中移动,它们也会发生变化,这与他们视野的变化相对应。目的是使人的头部和眼睛的运动与适当的反应(例如,知觉改变)之间无缝衔接。这样可以确保虚拟环境既逼真又令人愉悦。 当人探索周围环境时,虚拟环境应实时提供适当的响应。当人的动作与系统响应或延迟之间存在延迟,从而破坏他们的体验时,就会出现问题。该人意识到他们处于人造环境中,并相应地调整了自己的行为,从而形成了一种僵硬的,机械的交互形式。 目的是实现一种自然,自由流动的互动形式,从而带来令人难忘的体验。 总结 虚拟仿真是一种虚拟环境的创建,以我们感觉到的方式呈现给我们的感觉,就好像我们真的在那里一样。它使用多种技术来实现此目标,并且是一项技术复杂的壮举,必须考虑到我们的感知和认知。它既有娱乐性又有严肃的用途。该技术变得越来越便宜,越来越普及。可以预见的是,由于虚拟仿真的可能性,未来会看到该技术的更多创新用途,这也许是我们交流和工作的基本方式。 了解更多虚拟仿真资讯,请登录3Dcat实时渲染云平台: www.3dcat.live

2020-10-21

【3D架构】游戏和电影中的3D架构
3D架构在游戏和电影中变得越来越重要,3D架构技术(如 3d可视化,建模和 实时渲染)使电影和游戏行业的工作变得更加轻松,使电影和视频游戏的3D环境成像的整个过程更加有效。现代技术的最新进展使建筑师能够创建令人难以置信的,最真实的3D模型。 这就是3D建筑元素包含在视频游戏和电影中的方式,3D建筑架构中使用的最新最现代的3D渲染和建模软件解决方案已成为电影和游戏行业的完美工具。 正如建筑师现在使用各种视频游戏引擎来创建最令人惊叹的3D建筑可视化效果一样,游戏和电影中也使用3D建筑来创建更逼真的电影场景和视频游戏。 3D建筑与这两个行业有两个共同点:超真实感渲染和建模。尽管游戏和电影建筑和3D建筑之间存在许多异同,但3D建筑与电影和游戏产业之间的界线却越来越模糊。 游戏,电影和3D架构之间的关系 许多因素使游戏和电影与3D架构兼容。这两个行业都需要3D渲染和建模才能为游戏和电影创建最逼真的3D环境。电影和游戏与3D架构有四个共同点: ●软件选择-用于建筑可视化的3D渲染和建模软件最常用于游戏和电影院。由于传统方法已经过时,因此游戏开发人员和电影导演现在与建筑可视化人员和建筑师合作,为游戏和电影创建超逼真的世界。 ●使用最强大的3D渲染和建模程序使在真实环境中导入任何3D模型比以前容易得多。最重要的是,一些功能使您可以调整纹理,材质和照明,以使创建的空间更加逼真。这就是3D建筑师为电影和视频游戏设计超逼真的3D模型的方式。 ●3D动画-这可能是当今游戏和电影院中最常用的技术。可以使用3D动画来显着增强任何显示的对象,内部或外部设计以及环境的动态。 ●现代电影和视频游戏需要大量动画,因为它有助于为游戏玩家和电影爱好者提供更逼真的体验。传统方法包括某些限制,但是现代3D架构成功消除了这些限制。 ● 虚拟现实- VR现已存在于我们所做的所有事情中。房地产,建筑,游戏和电影院等许多行业都依靠VR来提供最身临其境的客户体验。 ●游戏和电影从VR获得的最大优势是,它允许3D艺术家 实时操作或编辑3D模型。这不仅显着改善了用户体验,而且改善了开发游戏或导演电影的整个过程。电影爱好者和游戏玩家都可以 实时体验电影或视频游戏的各个方面。 ●场景的复杂性-就像建筑中一样,细节在游戏和电影院中都至关重要。只有详细的3D模型才能传达这个想法。可视化就像游戏,电影和建筑中的通用语言一样,因为细节对于这三个行业都至关重要。 ●由于用户体验是最重要的,因此电影和视频游戏中场景的复杂性在提供最佳用户体验方面起着至关重要的作用。电影或游戏中环境的3D模型越详细,体验越好。 游戏和电影建筑与建筑可视化有很多共同点,但由于这些行业本质上不同,因此也存在某些差异。尽管存在这些差异,但是越来越多的建筑师从事游戏和电影行业。

2020-04-23

【虚拟仿真】用VR感受马丁·路德·金1963年的著名演讲:我有一个梦想(上)
TIME Studios推出了突破性的沉浸式项目The March,用 虚拟仿真再现了马丁·路德·金(Martin Luther KingJr)1963年在华盛顿的历史性游行。 封面为数字渲染的马丁·路德·金的《时代周刊》特别刊中,独家报道了本次 VR项目的首次呈现。 展览The March(游行)于2020年2月28日在伊利诺伊州芝加哥的DuSable非洲裔美国人历史博物馆对外开放。 《时代周刊》杂志社旗下曾获艾美奖的部门TIME Studios推出了开创性的沉浸式项目The March,将1963年为争取工作和自由的游行,以及马丁·路德·金的标志性演讲“I Have a Dream”(我有一个梦想)首次带入虚拟世界。 The March由TIME杂志社的艾美奖获奖者Mia Tramz和行业领先的沉浸式导演Alton Glass,以及本项目的执行制片人和叙述者Viola Davis共同制作,通过先进的VR、人工智能、电影制作流程和机器学习等技术,在虚拟仿真中再现最真实的人物表现。 经过精心的研究和TIME的新闻精神,The March活动在知识产权管理公司(Intellectual Properties Management, Inc. -- 马丁·路德·金的遗产授权商)的支持下创建,该公司授予了TIME杂志社该项目的开发权。 The March于2020年2月28日在伊利诺伊州芝加哥的杜萨布尔非裔美国人历史博物馆首次亮相,这是该博物馆的首次体验式展览。展览将持续到2020年11月。 该项目使用了那些技术? 马丁·路德·金是使用Digital Domain(以下简称为DD)的Masquerade(假面舞会)系统创建的,该系统结合了高端的动作捕捉(身体和面部的同时动作捕捉),机器学习和专有软件来创建3D的基础模型。艺术家们使用Maya和Houdini完善了马丁·路德·金的身体和面部,然后将模型添加到Unreal Engine(3dcat支持Unreal Engine 实时渲染)National Mall版本中。 同时我们还开发了 实时渲染工具,在基于位置的体验背景下运行,从而确保观众可以使用单个GPU看到最真实的金博士,这意味着不再需要像背包一样笨重的穿戴设备。体验过程可实现无线操作,无需与电脑捆绑在一起。通过使用无线技术,体验者能够自由移动,更加自如,不受年龄和活动能力的限制。 如何做出虚拟的金博士? DD从选演员开始,找到了一个身材和体形与1963年8月时候的金博士相似的演员,以重塑他的身体动作。金博士的遗产管理公司推荐了专业演说家斯蒂芬·弗格森(Stephon Ferguson),在过去的十年中,他一直在公开演说“我有一个梦想”,他不仅可以匹配体态特征,还能为金博士在演讲中的手势提供现实的参考。我们运用DD的Masquerade系统录制了斯蒂芬的表演,Masquerade系统是一个动作捕捉系统,能够追踪对象身体和面部的微小细节。与机器学习相结合的面部扫描过程,还需要另一个人来出演,为了能将小到毛孔的细节构建到基础模型中。通过这些扫描,制作团队可以确定眼睛的位置,头骨形状,颧骨和鼻梁的位置,以及肤色,匹配到金博士的基础模型中。然后将这些元素提供给DD的艺术家,他们在模型上(已完成50%)添加金博士的其他特征。这个过程中,制作团队参考了大量的历史图片和影像资料。 人的身体和面部每个月都在变化,所以制作团队只参照演讲当天的金博士。而且根据不同的角度,我们导出了尽可能多的照片。很多参考资料都是黑白的,而VR的体验是全彩的。在 实时3D Deep Dive中动作捕捉做出来的效果还原了金博士的特征和动作。在Dimensional Imaging中,DD追踪了斯蒂芬在说出某些单词时面部和眼睛的移动。为了动作捕捉,我们给了他一些不想关的句子让他念,旨在捕捉嘴巴的动作并激活脸部所有肌肉。在Dimensional Image(Di4D)动捕之后,斯蒂芬又来到了DD PCS(DD动作捕捉台),我们在他的脸上画了一个点,并为他安装了头戴式摄像头(HMC)。这些画在脸上的标记,能够正好匹配到DD的头戴设备中的大约190个点,能够捕捉到60帧每秒的画面。 在Di4D中斯蒂芬也做了同样的表演。将HMC中的动作捕捉和Di4D的动作捕捉导入DD编写的机器(ML)之中,制作团队便能够快速,高精度地将2D视频数据与3D模型数据相关联。然后,斯蒂芬穿着运动捕捉服,完整朗诵市场16分钟的“我有一个梦想”。参考视频资料,斯蒂芬模仿金博士的动作和语言,完成演讲。DD使用此次面部和身体的捕捉,将他的面部表情同步并映射到金博士的电子人物上,动画团队观察并调整了他的表情以使二者匹配。ML软件为动画师提供了一个绝佳的起点,动画师花费了大量时间调整虚拟人物的细微差别。特效团队再将捕捉到的身体和面部的动作添加在衣服的动画之中,给最后的效果添加了一些程序性的动态效果。 (未完待续)

2020-03-13

热门标签
热门资讯
往期资讯