文本到4D动态场景生成

Uriel Singer,Shelly Sheynin,Adam Polyak,Oron Ashual,Iurii Makarov......
本文提出了MAV3D(Make-A-Video3D),一种从文本描述生成 3D 动态场景的方法,用 4D 动态神经辐射场(NeRF),通过查询基于文本到视频(T2V)的扩散模型,对场景外观、密度和运动一致性进行优化。从提供的文本中产生的动态视频输出,可以从任意相机位置和角度观看,并可以合成到任意 3D...

用户分享观点: