如果说我们手头上的2G、4G或者6G这类的入门甚至主流的显卡都可以玩3D建模材质贴图并渲染一些简单的场景的话 , 那么碰到如今多数AI深度学习程序 , 可能我们得认栽 , 一般这玩意儿都会成为自己机器的噩梦 。 更何况 , 有的AI模型居然还是专门搞3D模型的 , 这要是来搞我们普通劳动人(显)民(卡)群众 , 岂不是噩梦中的噩梦?
没错 , 近日由芝加哥大学和特拉维夫大学联合打造的这个AI模型 , 就是专门用来搞3D模型的 , 从某种意义上讲 , 大概率也是专门用来搞你的PC电脑的——如果你要用这个AI的话 。 虽然机智客这篇文章的标题是说AI给3D模型上材质 , 其实更准确一点应该是 , 文本转网格Text2Mesh , 其实 。 借助基本的3D模型白模 , 用文本描述的输入方式 , 来完成对3D基本模型的后期处理和材质纹理完善 。
【3d模型|AI还能给3D模型白模上材质纹理?8G的显卡都得玩爆】
这个模型 , 完全不用我们像以前那样还要UV展开 , 就能给我们模型贴图上材质 。 这其实是构造了一个神经风格的网络 , 为网格里的所有顶点 , 生成样式属性 , 以便方便后续对网格表面定义相应的风格 。 比如把一匹马设定成一个航天员的风格 , 模型其实就是映射RGB颜色 , 沿着法线方向挤压移动 , 生成风格化mesh , 之后经过多视图mesh渲染后 , 结合CLIP的2D增强技术和其他计算 , 得以让输出结果更逼真 。
换言之 , 这个有点类似于以前我们介绍过的deep-daze那样的用简单的文本描述来生成一个新的作品 。 在以前的文章里 , 机智客介绍过这个 。 同样 , 和deep-daze一样 , 这个Text2Mesh的模型也考验GPU显卡 。 据资料介绍 , 这个依然是Python脚本运行 , 3.7版 , 理所当然还需要CUDA , 环境版本是10.2 。 这些倒也罢了 , 看GPU显卡 。 它需要最低8G的GPU 。 换言之 , 假如我们显卡够不上 , 大概率是没法测试这个应用的 。 即便最低8G的显卡 , 目测用正常一点有观感的模型 , 估计也得爆了 。
即便它不用预训练 , 对于我们普通的PC机器也是一个比较高的门槛 。 在单个GPU上的时间需要25分钟 , 看起来并不多多的样子 , 关键看你GPU咯 。 所以说啊 , 说来说去 , 还是一个字 , 穷——啊 。 如果说我们用6G的显卡还能玩以前那个AI的话 , 那么碰到这个搞3D模型的AI , 估计我们肯定得认栽 , 对于我们每个朴实无华的劳动大众独立显卡而言 , 这玩意儿简直就是噩梦中的噩梦中的噩梦 。
- 键盘|五笔输入效率那么高,却败给了拼音输入
- 折叠屏|折叠屏手机还能化身游戏掌机?Find N这些悬停操作有亿点秀
- 摄像头|手机拍照哪款最好?消费者给的答案,国产手机表现让人意外
- 三星note10|三星Note机皇OneUI更新手写笔+256G内存降成平民价还能战三年
- 英特尔|近年来,生成式深度学习模型在分子设计中的应用已经出现
- |情人节给女友选手机别犯难,这三款可以闭着眼入手
- 开学季|开工、开学季想换笔记本?追求屏幕、性能体验只给你推荐它
- 亚马逊|AMAZON“亚马逊”将毁灭美国经济的办法推广给了全世界!
- CPU|捡漏“老旗舰”还是买“新旗舰”?行内人给3条建议,说得太对了
- 软件|用手机浏览“不知名”的网站,会有什么影响?内行人给出答案