商业 来源:云掌财经 时间:2023-05-21 15:29:32
(相关资料图)
这两天,一段AI修图视频在国内外社交媒体上传疯了。不仅直接蹿升B站关键词联想搜索第一,视频播放上百万,微博推特也是火得一塌糊涂,转发者纷纷直呼“PS已死”。原来,现在P图真的只需要“轻轻点两下”,AI就能彻底理解你的想法!小到竖起狗子的耳朵,大到让整只狗子蹲下来,甚至让马岔开腿“跑跑步”,都只需要设置一个起始点和结束点,外加拽一拽就能搞定。甚至是让狮子张大嘴,连牙齿都不需要作为素材放入,AI自动就能给它“安上”。如此“有手就能做”的修图神器,来自一个MIT、谷歌、马普所等机构联手打造的D 这两天,一段AI修图视频在国内外社交媒体上传疯了。不仅直接蹿升B站关键词联想搜索第一,视频播放上百万,微博推特也是火得一塌糊涂,转发者纷纷直呼“PS已死”。原来,现在P图真的只需要“轻轻点两下”,AI就能彻底理解你的想法!小到竖起狗子的耳朵,大到让整只狗子蹲下来,甚至让马岔开腿“跑跑步”,都只需要设置一个起始点和结束点,外加拽一拽就能搞定。甚至是让狮子张大嘴,连牙齿都不需要作为素材放入,AI自动就能给它“安上”。如此“有手就能做”的修图神器,来自一个MIT、谷歌、马普所等机构联手打造的DragGAN新模型,论文已入选SIGGRAPH2023。目前这个项目在GitHub上已经有5k+Star,热度还在不断上涨中。这个名叫DragGAN的模型,本质上是为各种GAN开发的一种交互式图像操作方法。论文以StyleGAN2架构为基础,实现了点点鼠标、拽一拽关键点就能P图的效果。具体而言,给定StyleGAN2生成的一张图像,用户只需要设置几个控制点和目标点,以及圈出将要移动的区域(比如狗转头,就圈狗头)。然后模型就将迭代执行运动监督和点跟踪这两个步骤,其中运动监督会驱动控制点向目标点移动,点跟踪则用于更新控制点来跟踪图像中的被修改对象。这个过程一直持续到控制点到达它们对应的目标点。大部分情况下,每一步拖拽修图,单张RTX3090GPU在数秒钟内就能搞定。展开
标签:
下一篇:最后一页