一张 GPU 实时模拟布料碰撞特效,元宇宙时装秀最新成果展示
- 量子位
2022-05-23 13:40
在元宇宙里看时装秀,会是什么赶脚?
各种布料摩擦细节,不光看得一清二楚,而且就跟真的一样。
裙摆随着模特的走动飞舞起来~ 光是看看,就能知道这件衣服是不是轻盈。这是图形学大牛王华民团队的最新成果,提出了一个基于 GPU 的预处理器 MAS,一张 GPU 完成实时布料碰撞特效。
比如这件羊毛大衣,就能以每秒 37 帧的速度实时模拟出来,仿真精度可达 5mm。
而且也不光是衣服,连毛毛球、软皮玩具也能实现逼真的碰撞特效。
其论文收录于 SIGGRAPH 2022。作为全球规模最大、水平最高的图形学会议,SIGGRAPH 每年接收的论文都代表着当年 CG 最高水平。
来康康这是一项什么样的研究?一张 GPU 实时模拟碰撞特效
要构建真正意义上的元宇宙,首先需要的是一个强大的实时物理仿真模拟引擎。而当前常见的物理引擎在效果或效率上还远达不到理想的状态。服装模拟是所有模拟问题的制高点。因为服装的材质、碰撞都是最复杂的,解决好服装模拟,就等于解决了大部分实时物理模拟问题,为未来元宇宙开发奠定基础。
从技术上划分,实时物理模拟分为流体和形变体模拟两大类。相较于流体,形变体的应用范围更加广泛,比如弹性体模拟、布料模拟、头发模拟等,其产业端的价值也更加清晰,比如在服装、工业上的应用。
但当前困扰科学家的一道挑战,是完成更高质量的实时仿真。任何形变体的模拟,最后都归于一个线性求解问题,个中区别无非就是矩阵内部数值、稀疏程度还有矩阵大小的不同。因此,如何快速求解也就成为其中一个重要的突破口。
基于这样的背景,王华民团队提出了基于 GPU 的 MAS 预处理器 (Multilevel Additive Schwarz Preconditioner)。
顾名思义,这一预处理器采用了多层和域(domain)分解的概念。以往的算法主要依赖在一层网格上处理,这样域越少越好,不然误差大。但此次研究人员则是构建多个网格层,这样使用小的、不重叠的域,可以发挥 GPU 并行计算能力。
具体而言,MAS 预处理程序可以分成三个阶段。
第一阶段,利用 Morton 代码快速分层分域。
研究人员提出了一种超节点分割方法和跳过方法,用于空间的初步构建。
第二阶段,通过单向 Gauss-Jordan 消除的低成本矩阵预计算,在每个域进行快速的 inverse 求解。此外,研究人员还开发了一个选择性更新方案,以解决轻微的矩阵修改。
第三阶段,运行时预处理,从而对矩阵向量快速求解。为了降低计算成本,研究人员发明了一种对称矩阵-向量乘法。
实验表明,MAS 预处理器与许多线性和非线性求解器兼容,这些求解器用于带有动态接触的形变体模拟,如 PCG、加速梯度下降和 L-BFGS。
以最常见的 PCG 求解器为例,在两者一起使用时,在 GPU 上的收敛速率仍然明显优于其他预处理程序,包括 GPU 上的多网格 AmgX。
在达到相同的收敛目标时,MAS 预处理器的收敛速度要比其他预处理器快约四倍。与此同时,MAS 预处理器在 CPU 上也是有效的,其性能也优于其他预处理程序,比如英特尔的 ILU0 和 ILUT。
除此之外还发现,MAS 预处理器的计算开销很低。
并行计算时仅为 0.118 秒,相比之下 ILU0、ichol 和 ILUT 的成本为 2.50 秒、33.8 秒和 154 秒。
研究人员表示,此次为 5 万个定点到 50 万个顶点区间规模的布料和形变体仿真推向了一个更高水平。未来还将继续研究基于 GPU 域分解(GPU-based domain decomposition)的技术,因为这类算法有很多可以挖掘的空间。
Style3D 出品
本次研究团队来自 Style3D 研究院王华民所带领的团队。
王华民,俄亥俄州立大学前副教授,佐治亚理工学院计算机科学博士,斯坦福大学计算机科学硕士,公认的世界级图形学科学家。
曾以唯一作者身份完成四篇 SIGGRAPH 论文,6 届 SIGGRAPH / SIGGRAPH Asia 技术论文委员会委员,其学生遍布知名大厂,因为聚焦布料仿真,业内流传着这样一句话:
如果你研究布料仿真,就不可能没读过王华民教授的论文。
去年 8 月,他正式加盟国内时尚产业链 3D 数字化公司任职首席科学家兼凌迪研究院院长。结果不到一年时间,就率队带来了最新产学研成果,将实时仿真技术又提升到了新水平。
其核心产品,一个是率先打破国外技术垄断的 3D 柔性体仿真工业软件 Style3D Studio,其二是全球创新的面料数字化设计软件 Style3D Fabric,另有研发全流程协同平台 Style3D Cloud,以及开创性的数字时尚内容资源商城 Style3D Market。
研发过程中从面辅料选择、款式设计、渲染仿真、协同与展销等全流程,都可以进行数字化呈现以及协同合作,以此来提升研发效率。
此外,凌迪 Style3D 还依据工厂生产标准生成生产资料清单,串起整个生产制造环节,进一步推动整个行业链路的数字化。
据透露,今年 6 月底凌迪 Style3D 将有面向元宇宙开发者的神秘产品发布。目前,它的客户涉及到海内外品牌方、ODM(原始设计制造)商、面辅料商以及泛电商等。
值得一提的是,就在 SIGGRAPH 收录结果出炉同一时间,凌迪 Style3D 官宣了与牛仔技术公司 Jeanologia 的合作。全球每年生产 35% 的牛仔裤,都采用了这家公司的环保技术。两者合作下,牛仔设计师也能够直接在 Style3D 一键调用牛仔裤纹样及水洗效果图案等,无需制作牛仔裤实样,即可呈现牛仔裤水洗等多种工艺的设计效果。
而且这样高仿真的数字牛仔裤,还可以直接拿去营销展示和售卖。
事实上,除了推动整个服装产业链效率外,还有更现实的全球性问题能得到缓解,即现在热议的碳中和、碳排放。
当前,纺织服装已经成为全球第二大污染产业,全球每年约有 1280 万吨服装被填埋焚烧,制作服装所排放的废水占全球总量的 20%,并承担着全球 10% 碳排放。甚至于,还有 15% 纺织产品会遭遇不被使用,直接走向烧毁的命运,从而造成二次污染。
而一旦将整个产业从研发、生产到最后的商品展销等全流程搬上数字平台,污染问题就能得到有效解决,可持续时尚才真正有落实的方向。
图形学的产业发展
最后,回到这篇被收录 SIGGRAPH 的研究成果本身。可以看到的是,它不像是英伟达、谷歌每年传统艺能 —— 各种炫酷逼真的特效技术,以彰显企业的前沿技术实力。而是从更垂直的产业角度出发,技术迭代不太容易被人感知,但切实地解决了产业问题。
一方面,这说明图形学技术已经来到了产业端创造价值。
图形学最有可能、也是最大限度落地的领域,不是热议的电影、游戏,而是像服装、工业这等产业领域。
另一方面还说明中国在图形学上技术水平并不弱,会像 AI 一样从前沿到产业加速前进。从此次 SIGGRAPH 论文收录结果可以看到,中国团队已经占据名单的一大半,其中不乏高校以及企业代表。
随着图形学产业价值更加显性,更多世界级大牛参与进来。企业也将通过设立研究院、启动奖学金等方式吸引更多高校人才加入。
以凌迪 Style3D 为例,去年就启动了凌迪图形学奖学金计划,每位获奖者将获得 3 万人民币的现金奖励,第一期就有清华、浙大、中科大、南开、山大等 10 名硕博士获得。
如此一来,产学研闭环一形成,更有利于图形学产业化的长期发展。
如今爆火的元宇宙,最终挤掉泡沫。像当初的 AI 一样,只有将底层技术与产业相结合,发挥更长远的价值。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。