AI 绘画到现在也有一段时间了,特别是 MJ 和 SD 的强大,让不少设计从业者节省了大量的时间。AI 出图确实提高了效率,但从客户的角度来说,却一直的不到认可,原因在那里?
上次,我有一篇文章《Sora 又升级了?现实地讲讲 AIGC 在广告营销行业的场景应用》,讲到 lora 模型难以解决 " 最后一公里 " 的难题——即广告主要求对商品和 logo100% 还原。
卡壳点如下图所示,使用 lora 模型给客户训练的耳机图,会发现 logo 永远无法还原。
而且,即便是得到 90% 还原度的图,仍然需要使用 100-200 张产品图数据进行投喂训练,并花费模型训练师 1-2 周的时间。
有这个成本,可能我还不如直接找模特拍摄一张照片。
实际上,当时我还不太理解整个 AIGC 工作流的正确使用方法。而这个问题,对于在熟练运用 AIGC 场景的厂商来说,早就已经不是难题。
为此,我还特地去请教了阿里巴巴跨境电商服务专家——陈生老师(视频号 @陈生 2.0)。像他这样既懂美术、又懂 AI 编程,还实现稳定商业收入的超级个体,市面上真的不多。
他告诉我,针对客户这个需求,你根本就不能用训练 lora 模型的方法来做。原因有两点:
第一、客户不可能给到你 100-200 张商品图去练,你找素材就很费时间;
第二、lora 模型用来练人脸是可以的,但用来训练商品的思路就不对。
所以,陈生老师给出的解决方案是:使用 SD 的蒙版 +" 局部重绘 " 功能。
也就是说,正确的工作流应该是:你随便找个人戴上耳机拍一张照片,然后使用蒙版 +" 局部重绘 " 功能,把这个人的脸换掉,变成模特,最后再润色一下。
这就是来自真实市场需求的解决方案,简单粗暴,但确实好用。
然而,你会发现,很多 AIGC 平台社区和兴趣博主却在干嘛呢:把 " 局部重绘 " 这么重要的功能,用在玩 " 换装游戏 " 这种 C 端用户才感兴趣的场景中,比如下图。