时间:2021年12月20日 10:00-11:00
嘉宾:NVIDIA中国区Omniverse业务经理 何总
要点归纳:
如何看待元宇宙:元宇宙是一个概念集合,是在AI、区块链、XR技术、图形可视化技术、引擎技术等一系列技术的集合体。
为什么今年“元宇宙”这么火热:三个因素:①消费者的需求和现有技术提供的应用间存在矛盾,未来将会出现更沉浸式、更让年轻人喜欢的消费模式。②AI、区块链、XR等技术在比较集中的时间点取得了突破性进展。③疫情推动了从线下到线上的进程。
英伟达在数字孪生领域的分行业“三步走”计划:第一步,先做传媒娱乐和建筑两个行业,初步应用数字化。第二步,做产品设计,是微观数字化。第三步,最终目标是实现数字孪生的工业制造。
Omniverse平台:
目标:找到用户的需求和痛点,并且满足它。
设计初衷:未来英伟达会开源出来越来越多工具免费供大家使用,这将大大降低很多人参与创作的门槛,让每个人都可以成为设计师。
解决的问题:①通过统一的文件格式解决了设计协同问题;②通过文件轻量化解决了文件过大的问题;③通过多样的应用初步满足了不同行业的需求。
平台定位:Omniverse不会替代UE4、Unreal等离线引擎。我们的理念是提供一个基于引擎等产品之下的底层技术服务平台。
虚拟人融入日常生活需要多久,是否可行:虚拟人技术行业分了三步发展:①实现超写实;②引入AI,使其拥有对话能力;③情绪识别。虚拟人项目英伟达已经研发几年了,目前还处于初期。我们认为在未来3-5年内,虚拟人融入日常生活有可能会实现。
英伟达在虚拟人技术领域的壁垒:最核心的技术是数字人1.0时代的超写实逼真感。不管是光线追踪还是路径追踪,都需要大量算力,目前能提供这样技术的平台只有英伟达。
嘉宾介绍:
我们如何看待元宇宙?
首先元宇宙是一个概念的集合,它不是某项可以落地的应用,这点是大家都公认的。另外,我们可以看到它是很多技术的掺杂在一起的,大家认为未来的数字化世界,或是未来的世界,都可以被统称为“元宇宙”。这里涉及很多具体技术概念问题,在比如AI、区块链、XR技术、图形可视化技术、引擎技术等一系列技术的加持下,元宇宙是一个很多不同专业、不同方向的技术集合体。最终“元宇宙”这个概念在2021年集中落地和爆发,在让大家看到这些概念都可以有长足进步的前提下,大家也在热炒这个概念。因此,元宇宙总结来讲,是一个整体的概念集合。
为什么今年大家把“元宇宙”概念炒得这么热?
我们认为有3个因素:
①大家可以看到在过去20-30年里,从互联网到移动互联网的蓬勃发展,造就了一系列比较伟大的公司,这里不乏有中国的企业。我们今天使用的互联网产品有几类,包括视频、音乐、短视频、网上购物等,可以说都是2D的。现在供求双方的平衡有点被打破了,尤其是最近一两年,大家看到抖音APP,DAU有6-7亿,昨天晚上看到TikTok上周已达到10亿DAU,日活用户已经到了瓶颈阶段。在这个前提下,2D互联网出现了什么变化呢?消费者需要在某些环境中得到满足,和现在技术提供给消费者已有的应用,相互之间是有矛盾的。所以未来消费者需要的更好的、更沉浸式、更有让年轻人,尤其是00后年轻人喜欢的消费模式一定会出现,这是第一个因素。
②刚刚提到的比如AI和XR等各类技术。大家可能关注了AI,AI在6-7年前开始,到现在已经有比较成熟的落地AI应用,比如大家去机场,工作人员不需要人工审核身份证、人脸对比,而是通过AI进行人脸识别。所以现实场景中已经有很多应用了,并且许多这样的应用已经落地了很多年,并且技术成熟了。XR也是一样,XR在2014、2015年曾经有过一段低谷,但随着技术进步,比如我几个月前戴着Pico打了一次乒乓球,感觉体验比5年前好多了。虽然现在设备的感受还有进一步提升的空间,但这个方向已经逐渐落地成熟了。同时还有一系列不同行业专业的技术,比如区块链、物理学模拟、图形可视化渲染技术等,这些技术越来越成熟了,而且这些技术成熟在同一时间节点发生。另外,推动市场热炒“元宇宙”概念,就是因为这些技术都在同一时间点集中爆发,让大家看到了一种可能。当这些技术同时进步,同时达到一个节点的时候,那我们幻想中某一概念就会出来,现在大家都找到了这样一个概念,叫元宇宙。
③我们不能回避疫情对前两件事情的促进,让大家看到了线上办公、线上会议,甚至前两天看西城男孩的线上演唱会,各种各样的活动由原来线下的形式搬到线上来。这是疫情的推动,让这件事情进入到公众的视野。
我首先进行了简单回顾、总结了一下我所理解的元宇宙。然后就为什么大家在今年热炒这个概念分析了3个方向的因素和推动力。
在我讲完怎么看待元宇宙概念之后,再回到英伟达怎么去看元宇宙。其实英伟达不是为了元宇宙而做了什么平台,其实Omniverse平台已经研发5年了,这在公司,财报、创始人黄仁勋先生的发言中均有提到。公司在这个平台上已经投入了数亿美元,Omniverse在2019年发布,但当时大家的关注度还不太够。所以这也侧面印证了公司是以技术为导向的,创始人也非常具有技术的前瞻性。
我们先谈Omniverse平台的由来。这个平台最开始解决我们从用户、从客户使用端角度看到的3个方向的难题:
①设计协同问题。我们发现全球有4100万设计师,或者说各种创意工作者,每天会用大量不同的软件,比如大家耳熟能详的CAD、CAE、CAM软件等。而且这些软件可以有超过30多家不同CAD软件公司,甚至超过50个不同类型的设计软件工具,这些都出自这4100万全球设计师手中。再比如我们在做概念设计用Maya,比如设计一个杯子,完成这个杯子的概念设计后,我们就需要添加材质,比如用陶瓷质感,然后发现添加材质需要用到Substance这款软件,材质添加好再去做渲染,发现还要用软件渲染软件。总结下来,在一个经典的设计流程中,一个设计师每天至少面对3款不同的软件,而这3款不同的软件恰恰还不是同一家公司的,而且文件的格式也不是标准统一的,这会让设计师很痛苦,从概念设计到加材质、渲染,整个过程中需要把文件反复传进传出,这个过程非常痛苦。比如说现在PPT格式的大小和十年前完全不一样。同样3D设计里的文件也是与日俱增的,越来越大的,所以操作起来非常麻烦。
②文件量巨大会导致很多工作根本做不了。传统设计软件的版本每年迭代一次,又不能舍弃对传统文件研发支持,只能在以前的版本和研发平台上更新。这就导致文件越来越大,解决不了轻量化的问题。
③不同行业的需求。我们发现这4100万名工程师分布在不同的行业,有的在传媒娱乐做电影设计、动效大片,有的在楼宇设计里做建筑,有的在工厂里做制造,甚至还有做科学研究仿真的。每个行业之间又有不同的行业属性,不同行业需求不同。
在公司看到3个痛点后,公司就推出了Omniverse这样的平台。我们公司是一个硬件平台公司,而Omniverse是一个承在所有设计软件之下的技术平台,它帮助大家集成同一个文件格式,比如USD。大家都在同一个页面下,基于英伟达的Omniverse平台,同时操作概念设计软件、添加材质的软件、同时可以看到渲染的效果,在整个协同的过程中至少能节省50%的设计效率。我们在数据量上也做了一个测试,一个72GB的Maya文件可以轻量化到700+K,也就是10的5次方的降维。这样就能实现会我们在GTC上看到宝马工厂的展示。这样即使是上1TB的数据,我们也能够轻而易举在里面做修改、渲染,以及各种各样的工作。我之前在GE这样工业公司工作过,在前10年、20年,工业公司一直想做,但一直没有推出来。直到今年有Omniverse才把它推出来,这是数据量巨大的情况下,我们通过轻量化方式实现的。第三,我们在各行业都有各自不同的应用,我们面向不同行业,都有不同行业的专有技术集成在这个平台里。同时我们在平台上又开放了面向不同行业开发者的开发权限,我们有一个产品叫Omniverse Kit extension,基于extension可以通过API,通过Python,通过C++语言,实现对不同行业的开发定制功能。
总结下来,我们是基于用户的需求和痛点来推出这个平台,而且是在两年前推出的。今年也基于这个平台做了很多应用,比如我们的工业机器人Isaac Sim、自动驾驶的DRIVE AGX、数字虚拟偶像的Avatar平台,类似还有很多。我们也会在接下来研发中发布行业应用方向的产品。这些就是向全球用户展示基于Omniverse可以实现无限不同行业的可能,这是我们推出这个平台的核心逻辑。
其实这个平台是根据罗列出的3点需求推出的,让我们的用户,甚至不单单这4100万设计师,未来可能是全民化都可以参与3D世界设计、数字世界设计的平台。这个平台整合了英伟达过去20多年积累的专业图形可视化、XR、AI、物理学模拟引擎、基于核心数据中心级别算力,这5大项技术融合在一起的技术平台基座。它是下沉于刚刚提到的CAD等各种软件工具,我们不会去替代这些工具,而是提供给未来设计师所使用软件的技术底座。有很多媒体报道称这个平台是为了元宇宙准备的,其实只是有点不谋而合的感觉。
最后,和大家分享一下,如何看待在元宇宙在未来数字世界里,有哪些业务场景是可以应用。我们的逻辑非常简单,就是找到用户的需求和痛点是什么,并且满足它。举个例子,比如我们创建出了一个数字孪生的世界,这个世界是要反馈给真实的物理世界中的用户,满足人类的设计工作的需要。比如说宝马的数字化工厂,过去是没有办法去数字化孪生整个工厂车间。大家知道生产车有四大工艺,冲压、焊装、涂装、总装,其中光总装车间全部做完就已经有上TB的数据。至于宝马的数字工厂有什么用处,根据宝马董事会的米兰先生介绍的,每年都会调整宝马的生产线,以利于它的产能和产量,甚至是工艺的改进,每次改产品线都是他们的大难题。但如果这件事情能够搬到数字世界中,正如英伟达和它合作做这样数字化孪生宝马工厂的案例一样,其工作的效率提升了30%,这个工作效率的提升都是可以通过真金白银体现出来的。
另外,在一个月之前GTC大会上,我们发布了虚拟人制作平台,平台里展示了Toy-Me,也就是玩具版的黄仁勋先生。它非常智能,可以听懂不同专业科学家提出的非常复杂的问题和文化,同时可以讲述非常专业的知识,比如天体物理学、哲学方面、分子蛋白相关比较深层次的专业领域知识,这是对未来数字人这方面的研究进展。落在具体应用领域里,我们又展示了点餐机器人,这个和我们每天工作生活息息相关,比如去一个便利店买东西,或者去快餐店点一份东西,这是我们日常经常看到的场景。我们做了一个调研,大概全球2500万个Store小店,我们理论认为在未来数字化转型过程中,这些小店都会进行数字化转型,都应该放一个点餐的机器人。我们做了不同行业案例都是回馈到现实生活需求中,这是我们在不同的行业和应用的落地。
Q&A:
Q:能否展开谈一谈在英伟达计划当中,数字孪生的前景是怎样的?英伟达是不是致力于构建一个和整个现实世界完全映射的数字世界?如果要实现这个目标的话,会初步分成哪几个阶段,它的标志会是怎样的,大家预期会在怎样的时间去实现?
A:其实“数字孪生”这个概念很早就提出了,我没有记错应该是麻省理工学院一个教授或者博导提出这个概念,这已经是10多年甚至20年前的事情了。这个概念有点像工业界做一个工厂,一个车间,甚至是设计某一个产品,可以映射在数字世界里的一个概念。这是我们刚刚在介绍了宝马工厂时,解释他们为什么需要有这样一个数字化映射。主要原因在于这个数字化映射对于他们现实中工厂生产布局的改造,或是工艺流程升级和革新非常重要,所以才有了这个概念。这个概念大家都想做,但如果数据量超级大的话,吃很多算力的同时,还要实现各种不同软件、平台、主数据的打通等,所以进展比较缓慢。这是数字孪生的背景。
我们如何去看数字孪生,其实英伟达服务数字孪生,包括像达索、西门子、PGC这些公司,已经合作20多年了,我们非常清楚这些软件公司,这些工业客户需要什么。我们看到这些痛点之后走了几步,有几个规划。我们发现需要分行业进行“三步走”:
第一步是先做两个行业:传媒娱乐,大家如果喜欢看电影,那些电影的特效,是最早应用这些数字化理念孪生,比如像《复仇者联盟》的动漫形象,变形金刚等,都是数字化。第二个行业是建筑,建筑里有BIM(建筑信息模型)和CIM(城市信息模型)的概念。这两个行业是我们在一年半前已经打通了,这是第一步走,在这个行业里怎么做数字化。
第二步是产品设计,可以理解为微观的数字化。比如耳机,某一个单体产品设计的数字化,这个还在进行中,我们的进展还是如预期一样,也都集成了很多。
第三步,我们最终目标就是数字孪生的工业制造,类似于宝马工厂这种级别的。虽然现在我们跟宝马做出来了,但是它不具备可复制性。因为世界上没有任何其他的工厂能有宝马工厂数字化这么全面的。所以这一步的前提要求非常高,要有所有工厂的数字化数据,同时还要引入类似Omniverse的技术平台,整合整个流程、数据标准能力的平台,同时还要具备一定算力。所以这是我们对数字化孪生工厂“三步走”规划。
总结起来,我们对于未来数字化世界的创建,包括元宇宙世界的创建,技术是非常重要的。我们认为,所谓的数字孪生不单单是1:1把世界孪生出来。我们数字孪生世界应该会比真实世界大几百倍,甚至几千倍,几万倍,因为你要做整个场景,比如宝马工厂的场景,需要切分成不同的设计模组,或者不同的数字世界,其实它会比真实世界大好多倍,这是我们看到的。反馈回来对我们的工厂也好,其他行业也好,都是非常有意义的。
Q:Omniverse的定位和Unreal这些引擎之间如何分工,目前有多少功能是重叠的,长期来看是否会逐渐取代它们?
A:如果大家对于引擎稍有了解,可以这样分享一个例子,我们的引擎和友商的引擎是不一样的。大家玩游戏的话知道手机上的“吃鸡游戏”,或者PC端的《魔兽世界》、《暗黑破坏神》等,这些游戏都下载下来,手机上需要几个G,PC端甚至有几百个G的游戏。而那些几个G,几十G,几百G的文件是什么呢,其实那些就是像Unreal这样的引擎所做的,是提前预制好的、并且离线的,所以它们的定义是离线引擎。而Omniverse要做的平台是实时的,这两个是完全不一样的概念。
目前我们和所有的CAD软件公司,包括和引擎公司合作这么多年关系都非常不错,我们不会去替代他们任何一个产品。我们的理念是提供一个基于他们产品之下,底层技术的服务平台。
Q:能否请您详细介绍一下实时和离线的区别是什么,分别都是什么样的应用场景,能否举一下例子?
A:因为我玩的游戏比较少,最近几年就玩过手机端的“吃鸡游戏”,这其实是一个离线游戏。大家注意到,角色跑动时的影子是没有光影的。或者说一颗手雷在现实世界可以把房子炸掉,但游戏里的楼始终还是在那儿,不会塌的。这个就叫离线,它不会动,也不会变。
什么是实时呢,未来实时的引擎应该是人在那儿跑,影子一直跟着走,光照也会发生改变。比如真实的场景里会有日出日落,我们就针对那个场景做出应该有的日出日落,但现在离线游戏中有一些是没有这些实时光影。
在实时引擎中,有日出日落,有时间的变化,随着时间变化太阳的角度也不一样,人的光影也不一样,下雨了影子也会发生变化。更进一步,我扔了一颗手雷真的有可能把木屋和厕所炸掉,旁边的物体会发生变化,这就是离线和实时的区别。
Q:Omniverse现阶段推广比较大的障碍是什么,是技术上不够成熟,还是应用场景受限,或者价格,或者说消费者的一些习惯?您预计Omniverse的推广和普及的拐点会出现在什么时候?
A:这是个好问题,我们实际上非常重视生态的开发,所以Omniverse在两年前推出的时候,我们就一直在布局整个生态,像我这样的角色在全球也有其他的同事在做。
先分享中国的,中国的生态已经有很多个,我们有超过3000名开发者正在使用,这个数据每天都在上升,每天都有人在我们的网站上去下载这个产品。我们的目的是有了这样的平台后,要大大降低设计者的门槛。我们在全球的4100万设计师,很多都是以前工科毕业的,像计算机的,包括CAD、辅助设计,还有各种各样花了很多年图纸的工程师,都具备一定的专业能力。
大家可以关注我们一个产品GauGAN,GAN就是绘图生成软件的简称,这是我们推出完全免费的绘图工具。以前的绘图工具比如用CAD软件需要一笔一笔画,画完之后做三维造型,添加材质渲染,然后做出三维模型。GauGAN引入了AI和深度学习的工具,现在GauGAN 2.0版本是几个礼拜前发布的,你可以输入一段文字,比如说Cloud,它就会直接生成一个云彩。比如输入一段“我想要非常阳光明媚的阳光,但我要让那个阳光穿透在森林里”,它就会自动生成一个树林里穿透阳光的照片。对于我们公司来说,未来我们会开源出来越来越多这样的工具,免费给大家使用。这会大大降低很多人参与创作的门槛,也就是人人皆可以成为设计师,这也是我们的设计初衷。我们非常重视生态,让大家在平台上自己去开发工具,自己生成作品,这是我们的核心想法。
另外在推广过程中有哪些困难,因为Omniverse这样新鲜的事物出来,我们肯定还会逐步扩展功能。我们在软件平台的各种不同专业方向和行业延伸,这些都在不断探索。我再举个例子,比如我们现在有一个平台叫Audio2Face,大家可能听说过,字面理解就知道。就是我输入一段语音或文字,就可以驱动现在比较流行的三维数字人模型面部动作。Audio2Face我们已经推出了两年多了,其实我们还不止于此,我们还开发出Audio2Translator(语音语义驱动动作),自己让数字人身体,比如像老黄演讲,输入一段他的手怎么样去摆,这是我们在不断研发的。未来我们还会上Audio2Emotion,同样我喊了一个“啊”,这个“啊”表情应该是什么样,是惊讶,还是被人不小心碰到了疼了一下的痛,都会是成为我们研究的发展方向。推广出来需要迭代,不断进步的,我们的功能和性能会往更宽广应用方向努力的,这是我们一直非常关注的,也是我们不断努力,让平台更加优化,算法更加好,门槛更加低,让每个人成为设计师。
这里给大家打个小广告,我刚才说的Audio2Face,我们硅谷同事的6岁女儿,给她父亲生日派对上,她就花了几分钟时间,用笔记本Audio2Face唱了一首生日歌,把这首歌输入Audio2Face平台里,驱动她特别喜欢的一个卡通动画里的犀牛角色,让犀牛唱出来,现场播放给她父亲。我们有这样的工具可以大大降低设计师、设计者的门槛,这是我们想要看到的未来趋势,这也是我们一直努力的方向。
Q:现在虚拟数字人也比较火,你觉得虚拟人真的融入我们的生活,比如说做直播,或者是做偶像,或者是做营销这种,您觉得技术方面达到普及需要多久,是否困难?商业模式上是否可行?
A:其实我本人在国内已经做了3年的数字虚拟人的生态,整个市场的需求在过去一两年内非常多。
先回答一下这个技术,其实这个技术里也是分了“三步走”,英伟达在硅谷有数字研究院。①实现超写实。国际上包括国内做的超写实级别的数字人基本上离不开我们的技术,我本人也亲自去跟进了一些项目,带着我们的团队一起,包括生态合作伙伴一起做的超写实数字人,比如央视主持人,比如新华社,比如其他超写实级别的项目,我们都做过。②要引入AI,要让它有对话的能力,Conversation AI这方面我们已经开始有布局了,而且已经实现了。③情绪情感的识别,这种情绪情感的识别就在于,今天我们是电话会议,如果面对面的话,真实人类对对方的表情、情绪的识别是非常准确的。我们如何让数字人能够具备这种能力,这个我们已经研发几年了,目前还处于初期。我们认为未来3-5年内,虚拟人融入日常生活真的有可能会实现,这是从技术角度看到的。
另外是市场前景。特别巧,前一段时间我刚看过一个数据,全球数字虚拟人的市场在2028年可能会达到513亿美金的市场规模。中国可能会在2030年达到50亿美金,也就是1/10的市场,所以这个市场前景还是很大的。刚刚您提到的业务场景都是数字人1.0时代了,比如数字偶像、数字直播、主播,这些都是赚眼球的。我觉得就像艺人一样,一股风过去这个浪潮也就过去了。我们更关注的是真正能落地,帮助到大家切实的应用。比如刚才说的点餐机器人,数字人也可以做出来的,包括未来可以通过全息投影的方式,在店里做一个数字的点餐员,这些都有可能会出现,这些才是真正地服务我们落地的需求。
其实我们的数字宝马孪生工厂里大量引入了数字人,在视频里会有很多工人,那个工人都是我们用数字人的技术做出来的。人在里面怎么走,操作台的高低,是否需要弯下腰走过某一台设备和操作台,这些都是符合人体工程学的。这些才是服务真实应用场景。所以我们认为未来的数字虚拟人应该真正应用到这样的业务场景里,才会有真正的业务逻辑在里面,所以前景非常大。
Q:您说超写实数字人形象的技术上一定要用到英伟达的技术才能实现吗?
A:不是一定,是用了我们的会更好。
Q:关于数字人的塑造,同行中的平均水平是什么样子,以及达到你们这样的水平,或者进行商业化水平需要多久,或者多难?
A:这里核心的一个技术就是数字人1.0时代的超写实逼真感,这个逼真感核心是图形学理论轮廓范围内。图形学,上世纪就开始很多人研究算法。比如从光栅化算法过渡到光线追踪,光线追踪是图形学里的里程碑,或者图形学巅峰的算法是路径追踪。光栅化就是三角面,看到那些好莱坞大片后来制作的,好莱坞也做了很多虚拟人物,这些人物以前都是光栅化,因为是用多少亿的三角面做出来的,这就是一个技术。
2018年英伟达提出实时光线追踪,这是现在比较流行的,也是最高端的一个技术。实时光线追踪的核心是光源打在脸上反射出来的效果,这个技术叫光线追踪,这是英伟达提出来了。我们技术路线是在2035年实现路径追踪,也就是追踪所有的光线,实现路径追踪。
回到您问为什么一定是英伟达呢,因为不管是光栅化也好还是光线追踪也好,还是未来的路径追踪也好,它会要大量的算力。还有一个核心的图形学底层的技术,比如这种光线追踪技术,算力+图形学底层技术,能够提供这样技术的平台只有英伟达。目前看来,GPU市场我们占80%以上。另外,我们不但是芯片的制造公司和销售公司,我们的图形学算法科学家,还有深度学习、AI人工智能算法科学家,在我们公司里这些人员占全球的60%。所以,我们在软件、算法、图形学理论算法研究储备是远远领先于同行的,这是为什么大家在做这个时离不开我们的技术,或者说选择我们的技术会比别人要好很多,超过和领先别人很多个身位的核心原因就是这样。
Q:以后英伟达会成为一个内容输出服务平台的话,这个版权是属于定制者,还是属于技术提供公司呢?
A:我们是在这个过程中提供了GPU显卡,刚刚提到的算法,包括图形学的东西其实都是开源免费给大家用的,我们没有跟别人分享这个人代言费100万,我们提成多少,从来没有,这是需要明确的。
Q:英伟达现在商业模式是提供数字人编制服务,然后收取数字服务费吗?
A:我们没有服务费,别人会选择我们的GPU,GPU上有我们的算法,算法上很多是免费的,我们没有收过任何服务费。
Q:那之后英伟达的商业模式是怎样的?
A:我们刚才也提到了生态合作伙伴,我们更想让生态合作伙伴在平台上做应用,由我们的生态合作伙伴提供这样的服务给大家,我们不会自己去做。我们也没有那么多人去做这样具体落地的事情。
Q:听起来Omniverse平台主要是给Autodesk等产品提供一个标准的数据格式是吗?
A:是的。
Q:现在Autodesk也有数据格式,而且也是比较公开的格式。英伟达的数据格式相对以前的来讲有什么优势吗,会有什么改进吗?
A:其实Autodesk和达索都尝试推出类似Omniverse平台的产品,但都没有成功。其核心的逻辑在于Autodesk和达索都不会使用对方的产品,比如Autodesk竞争对手可能有几十家,它要推出自己的格式让大家去用的话,那几十家都要使用它的格式,但大家都是它的竞争对手。所以这件事情只有硬件公司,在它们利益范围之外的平台,中立的平台才会做成,就是这么简单。我们选择的是USD格式,这是皮克斯2016年提出的,是免费开源的。
Q:刚才你提到GAN这个算法,主要用在动画制作上,工业设计上基本上用不到的对吗?
A:刚才我提到的工具都是我们的探索,未来某一天也许会提出工业相关的GAN算法生成。
Q:使用我们平台的话可以把设计的文件包大小缩减,是说我们把一部分放在云端了吗?
A:它是USD技术,可以轻量化,并没有放在云端,它的结构就是颠覆的。文件大小的缩小,纯粹是USD的优势,这是最核心的。如果大家对这个感兴趣,可以上网搜一下USD,这是非常伟大的发明。
本文编选自“宏股策”微信公众号,为国海证券元宇宙系列访谈之二;智通财经编辑:文文。