失业率会增加吗?另一个行业可能会被AI颠覆
长期以来,3D内容的创作一直是视频游戏设计和开发、现实增强、虚拟现实和影视特效最重要的部分。然而,3D生成具有独特而艰巨的挑战,这是图像和视频等其他生成内容所不具备的。
然而,随着生成式AI的爆发,许多研究人员开始针对上述问题提出解决方案。最近,Meta发布了最新的Meta系统 3D Gen (3DGen),它可以在不到一分钟的时间内直接从文本中产生3D资产。

关于AI在3D创作技术上的突破是否会加速这一行业的变革?或AI是否又颠覆了一个行业?
颠覆3D内容产业
目前,3D内容生产面临的最大困难是成本居高不下。根据权威的3D数据平台公司Sketchfab数据,3D模型的成本从几百美元到几千美元不等,生产时间从几个小时到几天不等。不同的模型,不同的精细度,不同的生产方式,不同的价格和生产时间。
围绕3D内容生产技术,3D发动机和3D内容创作工具被视为蓝海中的明珠。生产力更强、使用门槛更低的3D发动机和创作工具也成为人们普遍关注的焦点。面对世界上数十万亿的3D内容市场,以及技术、商业和成本问题,谁掌握了高精度、高效率、低成本的3D内容生产技术,谁就掌握了未来数字世界的生产能力。
此外,3D生成是一个非常消耗计算能力的过程,主要是因为它涉及到复杂的计算和大量的数据处理,如实时渲染和细节处理。此外,由于计算能力不足,生成速度可能非常慢。
另外,传统方法产生的3D资源一般很难达到真正的照明和材料特性,从而限制了它们在专业工作过程中的实用性,
如果用户能够非常方便高效地创建3D材料,至少可以大大改善缺乏VR内容的问题。如果材料的质量能够进一步提高,虚拟现实世界真的可以达到真实的程度。
Meta发布了最新的AI模型,面对3D内容的发展堡垒。——Meta 3D Gen(3DGen),可以在1分钟内生成高质量的3D材料。
根据Meta的说法,3DGen可以在不到1分钟的时间内快速生成3D内容,这些内容具有高分辨率纹理和材质贴图。另外,它还可以在同一3D形状的基础上调整纹理贴图,帮助创作者实现快速迭代。根据技术报告,专业的3D艺术家在大多数类别中比竞争对手得分更好,特别是对复杂的要求。Meta说,它的速度是同类系统的3-60倍。
科技漩涡认为,3DGen在更多场景中的广泛应用将大大提高相关专业人士的工作效率和创作质量,进一步推动3D内容创作和应用领域的发展。
Meta 3D 怎样做Gen?
Meta 3D 基于物理的Gen支持渲染 (PBR),在实际应用中,这是再次照明。 3D 另外,资产是必须的。3DGen 也支持用户提供的额外文本输入(或艺术家建立的)以前产生的3D 重新纹路的形状。
那么,3D 什么是Gen的运行原理?
其实,Meta 3D Gen是一种三维资产产生成两个阶段的方法,它将Meta与Meta结合 3D Gen和AssetMeta 3D TextureGen两个关键部件,能有效地建立高分辨率纹理和PBR材料的3D资产,其速度比目前的解决方案快3-10倍。
实现方法包括一种构建3D网格的部件。(AssetGen)以及一种用来产生纹理的部件(TextureGen)。
第一阶段,在客户提示下建立初始3D资产,推理时间约为30秒。第二阶段,基于第一阶段产生的资产和初始文本提醒,生成更高质量的纹理和PBR地图,推理时间约为20秒。第二阶段可以重新开始为无纹理的3D网格生成线条,推理时间约为20秒,但视觉效果一般更真实。
此外,3DGen基于AssetGen和TextureGen,很好地补充了3D对象的三个关键信息:视图空间(目标图像)、体积空间(3D形状和外观)和UV空间(线条)。
这个过程从AssetGen开始,生成了几个相对一致的关于物体的视图,通过使用多视角、多路径的文本到图像生成器。
接下来,AssetGen中的一个重建网络将第一个版本的3D目标从体积空间中提取出来。在这个过程中,网格被提取出来,对象的3D形状和纹理的初步版本被建立起来。这一系列步骤形成了从文本描述到3D模型转换的过程。
最后,TextureGen 在保持初始图像保真度的同时,利用视图空间与UV空间相结合,重新生成线条,提高线条质量和分辨率。
3DMeta Gen的潜在应用是巨大的。3D游戏开发者可以使用。 Gen可以快速制作游戏环境和角色原型,而建筑可视化公司可以生成建筑整体和内部的具体3D模型,简化设计流程。目前,3D Gen仍处于比较初级的阶段,经过发展,我们认为它将对行业产生更大的影响。
写在最后
科技漩涡认为,像Meta这样的新技术为3D模型在不同光照环境下呈现真实感提供了可能性,在3D图形、动画、游戏、XR等领域有着巨大的潜力,对行业乃至产品研发都会有很大的帮助。未来AI会在3D内容领域全面部署完成任务吗?我们拭目以待。
本文来自微信微信官方账号“科技漩涡”(ID:TechVortex),作者:贾桂鹏,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




