当人人谈论元宇宙时,大家都在关心什么?空间是否热闹丰富,交互是否丝滑……
NoNoNo其实都不是,而是真实感与沉浸感。
△饱受批评的小扎自拍
作为最典型、也是最本质的标签,如果没有真实沉浸的体验,那么元宇宙的价值与意义也就不能被大家所感知。
而这一点又不同于动画电影的那种逼真感,往往只是看起来像就行。当下元宇宙的产业应用,工业、服装、数字孪生等,就不只是要求看着像,而是要和现实世界的某个具体实物尽可能一样。
△动图来自SOOGIF
换言之,我们身处的现实世界,无疑成为了当下元宇宙应用最关键的参考系,这也对背后的图形学技术提出了更高的要求。
于是乎,那些少有人关注的更多细节,也就成为了技术流派的攻坚代表。比如数字人的穿衣打扮,其材质、相互作用力等模拟都要比以往更加精细复杂。
按照传统的建模方式,又很难完整地定量描述出来;人工智能的方式难以保证其精准度。因此在这几年发展十分有限。
现在Style3D王华民团队提出了一种全新思路,他们从源头材质上入手,从AI所擅长的事情入手,提出了模拟参数AI预测模型,结果模拟出来的效果跟面料实物的真实悬垂或褶皱效果一样。其研究成果即将发表在SIGGRAPH Asia 2022上。
而且在现实产业落地,还有更重要的应用价值。
他们将数据采集速度提升了5倍。对于数字化纺织物制造商而言,节省了一笔不少的时间成本。
来康康它究竟做了啥?
面料仿真,作为数字人服装的核心技术, 因为其材质以及他们之间复杂的作用力(自碰撞),被业界公认为物理模拟仿真最难问题之一。
通常来说,一套“制衣”流程,从技术角度姑且可以分成建立模型、数值计算与求解、渲染显示三个步骤。
其中最重要的部分就是建立模型,甚至直接决定后续环节的实现机制。而为了让数字人服装更真实,需要从构建模型的“原材料”,即数据,开始做起。
这里的“数据”,指代的是能反映真实面料信息的模拟参数。其中,弯曲刚度的测试就是其中不可忽略的影响因素。
弯曲变形,几乎是所有织物变形的表现形式;织物的弯曲刚度对柔软度、皱纹细节等方面的模拟影响很大。
但因为其非线性、各向异性以及多样化的特性,过去几十年来,科学家们都致力于对它进行可靠和有效的估计和保证模拟。悬臂法是当前最流行也最直观的方法,即用一个悬臂来评估布条的弯曲程度。
但实际上,这种方式存在明显的局限性。比如没办法处理卷边的针织面料。
以及没法处理复杂的物理模型,因为从根本上来说,它是将单个参数孤立出来测,但实际上参数之间是相互关联的。
更为严重的问题,在于仿真误差。
现有基于悬臂的参数估计方法都是将弯曲刚度作为现实布料的固有属性来测量。但本身模拟器就自带误差,即便测量再完美,模拟与现实依旧是相差甚远。
要解决这个问题,思路也很简单,就是将其当做一个simulation-in-the-loop优化问题。
具体来说,就是将参数当做未知数,把模拟与现实之间的差异作为目标来求解。这样一来,既能处理复杂模型的多个参数,也能直接将模拟误差给解决了。
早在2011年,王华民团队曾考虑过用数值方法来解决。
(引入校正角,结合优化算法寻找最佳弯曲刚度参数。)
之后陆陆续续有学者,在使用类似的方式。不过由于参数与形状之间的复杂关系,导致计算量庞大,整个过程困难且耗时,进展也就有所滞缓。
而又在最近几年,AI成为另一种探索方式。通过视频、图像的学习,让AI学会预测面料模拟属性。
不过因为是在一个自由开放的环境,导致数据收集与训练困难,以及准确性不是很高的问题。
基于这样的背景,王华民团队带来了全新的思路:
在一个可控的环境下,利用AI与海量数据相结合,实现快速的模拟参数预测。(具体指代的是,面料的弯曲刚度)
首先构建一个可控的环境,即60年代提出的Cusick悬垂测试法,将布料标本悬垂在一个圆柱形平台上。
之所以可控,是因为相较于更流行的悬臂法而言,它更省时,可以处理更复杂的面料,不容易受塑性影响,可以更直观自然地显示布料的褶皱。
这些特质对模拟环境至关重要,比如数字人服装。
但以往的认知中,悬垂法主要是用来提供弯曲刚度的各种评估指标;而不是用来进行准确的参数测量。
研究人员开发了一个深度学习系统来解决这个问题:
先用悬垂法评估现实织物的悬垂性,在用特定模拟器找到最佳弯曲参数,以展现与现实高度一致的弯曲行为。
具体而言,使用悬垂测试仪的多视角深度图像,来捕捉面料样本的悬垂形状,将其作为DNN的特征向量进行推断,最终得到弯曲刚度参数。
(深度相机以240×180的分辨率捕捉四幅深度图像,形成一个特征向量,来描述织物弯曲特性。)
关键问题在于,如何训练中这样一个DNN。考虑到现实生活中建立一个大型数据集过于耗时,且没有考虑到采集和模拟过程中的误差,研究人员开发了个多达6个参数的非线性各向异性弯度刚度模型。
但由于整个参数形成的全空间太大,无法直接采样。因此,研究人员使用悬臂测试仪大致测量的参数训练构建出一个参数子空间——基于变异VAE模型打造的。
这个子空间一方面为布料模拟器提供参数,另一方面,与模拟器一同为训练网络提供样本数据,最终训练出一个基于回归的预测模型ResNet-18。
最终在一个有96个英特尔CPU内核和4个英伟达RTX 3090的工作站上运行12.7小时得以训练完成。
接着,研究人员从成本、模拟保真度、可靠性以及适用性四个维度评价该系统的性能。
成本方面,包含时间成本和财务成本。根据实验,一个没有经验的用户完成一块织物的整个参数估计过程,只需要不到3分钟。而相较于传统悬臂法的15分钟,采集速度增长了5倍。
另外,悬垂试验器价格低廉,除了Azure Kinect深度摄像头外,该设备的其余部分成本低于30美元,而且很容易组装。
而不像悬臂测试仪,所使用的部件都是定制的,在不包含单反相机的情况下至少需要500美元。
在保真度上,他们的系统总体上优于悬臂测试仪和基于视频的方法。
以俯视图这一视角,可以看到相较于悬垂法,本系统更契合重建系统。
研究人员还邀请了一波用户,来判断模拟效果,结果发现相较于悬臂测试仪,自身系统模拟出的效果更贴合真实面料悬垂效果。
在可靠性实验上,研究人员发现,即便织物样本的悬垂形状、初始方向不同,也能做出可靠的参数估计。
除此之外,这个系统还有很好的适应性,只要基础弯曲模型及其参数相同,不同的模拟器可以产生几乎相同的悬垂结果。
其估计的参数也适用于悬挂情况。
研究人员表示,接下来他们计划用在下一代面料测量设备,并拓展到更复杂的物理模型。
评价物理仿真引擎好坏的标准,无疑两方面:性能与保真度。
相信很多人都感知到,不管是布料还是各类形变体、流体模拟,过去在性能上的突破总是进展频频,但在保真度上发展却十分有限。几十年发展至今,人们对CG效果的认知才逐渐从逼真走到真实这个程度。
原因无它,技术难度太高。
以往相关的探索大致可以分为两种思路,一是传统的构建物理模型,且不论材质精度能否实现,就是各种内外部的相互作用,都很难完整地定量描述出来。
另一种则是AI,在一个开放阈里学习布料仿真,其精度和准确性都不能保证。
不过这两种思路只是粗略拆分,现在也越来越多研究是将两者结合,但如前文所述,发展十分有限。
而王华民团队则采用了一种全新的思路,从源头入手,从AI擅长的事情入手。
当然还有更为现实的产业问题得到解决。
对于数字化纺织物制造商来说,以往靠悬臂法来测试,即便是有经验的用户,一块布条的测试至少需要15分钟,这其中包括准备样本和实际测试的时间。
对于库存动辄上千种面料要进行数字化的制造商来说,这种人力、时间、物料等各项成本是无法承受的。
而现在王华民团队的新模型,直接将采集速度提升了5倍,并且很快就会部署到他们数字化服务平台,真正实现产业落地。
事实上,这种基于技术创新实现降本增效的事情,在整个面料数字化进程中并不少见,而王华民团队所在的凌迪Style3D正是其中进程的代表和参与者,不管是从资本认可、还是在行业落地等维度上都可见一斑。
今年6月, 凌迪Style3D宣布完成近1亿美元Pre-B+轮融资,由高瓴创投、鼎晖等多家机构连续投资。凌迪Style3D发展多年都持续一年一次的融资节奏,在当前资本寒冬期实属佼佼者。
目前在服装行业已经深耕7年,帮助企业在研发、协同、展销、生产全链路数字化,遍布海内外板块,与各细分领域的国际头部企业均达成了相关合作,如Nvidia、Alvanon、YKK、Pantone、Jeanologia等。
而现在随着元宇宙的兴起,凌迪Style3D本身作为基础设施的提供者,既有底层技术和算法优势,又有成熟落地时尚领域的多种软件工具等,且其业务可以外延至更多领域。
比如数字人、动漫、家居、游戏。据称,这些已经在凌迪Style3D的考虑范围中,甚至已经落地。百度世界大会亮相的希加加,正是凌迪Style3D提供的服装模拟技术支持。
也再一次印证,唯有技术创新,才能创造产业价值,也能更适应时代洪流。
“