Meta近日发布了一项名为URHand的开创性研究成果,这是一款通用可变光照手部模型。与传统的手部模型相比,URHand能够根据用户的真实双手进行个性化调整,并模拟真实光照环境下的手部细节。研究人员将其称为“首个可适应不同视角、姿势、光照和个体差异的通用可变光照手部模型”。
使用 URHand 的用户只需上传几张自己的手部照片,该模型就能定制出与本人相差无几的虚拟手,轻松将“你的手”带入虚拟世界。这项技术有望增强元宇宙中的沉浸式体验,让用户在虚拟现实中更加自然地交互。
然而,目前尚不清楚 Meta 是否会将 URHand 转化为实际产品。Meta 多年来一直致力于打造逼真的 Codec Avatars 技术,并期望实现跨越时空的真实互动。尽管如此,在打造一个逼真的虚拟化身时仍然存在诸多挑战。
除了头部和面部之外,自然的肢体动作、真实服饰细节以及高度个性化的双手对于打造一个逼真的虚拟化身同样重要。任何体验过虚拟现实中与自己真实双手完全不符的手部模型的人都会明白那种失真感带来的不适。
因此,URHand 的出现无疑为解决这一难题迈出了重要一步。未来,当你在元宇宙中伸出手指、打招呼或握住虚拟物件时,或许会感觉就像是在现实世界中一样自然。
本文属于原创文章,如若转载,请注明来源:Meta发布可变光照手部模型,虚拟世界可展现真实双手https://news.zol.com.cn/852/8529088.html