AI探索指南
Photo
想明白这件事之后,第二代素材完全换了做法。不再只有一种格式,而是同时测POV视角、reaction,hook、多素材混剪。角色也不再单一,测试纪律拉起来👉每条素材给一小笔预算,48小时看数据,达标就放大,不达标就杀掉,不跟任何一条素材谈感情。这个框架跑起来之后,数据慢慢回来了。某些hook风格的点击率接近20%,特定角色加场景的组合在持续找到自己的受众。从噪音里开始能听到信号了。

这就是开头说的那个判断开始变清晰的时刻。

GEN2证明了AI素材是能转化的,但同时也证明了一件事:素材的生命周期比我想象的短得多。一条好素材可能只有几天的黄金期,之后就进入衰减。你不是在做"几条好内容",你是在跟一个永远在消耗的系统赛跑。能赢的唯一方式就是让生产速度远远超过消耗速度。

所以接下来三周,我把几乎所有精力砸在了工具上。我们用Claude Code从零搭了一整套AI素材生产系统: 完整的、任何团队成员都可以直接调用的技能包体系。

举个具体🌰:假设我们在TikTok上看到一条爆款视频,觉得这个hook有意思想复用。在以前,这是一个需要看几遍、截图、写文档、开会讨论、再让剪辑师理解你意思的过程。现在的流程是:把链接丢进Claude Code的视频理解技能,它自动下载、拉字幕、做镜头分析、跟画面内容交叉比对,输出一份结构化的拆解报告,这条视频的开头三
秒用了什么情绪触发、文字出现在第几帧、转折点在哪里、哪些元素是可以迁移到我们产品的。拿着这份拆解,喂给prompt生成技能。这个技能通过一个变量矩阵——角色乘以场景乘以hook类型乘以CTA结尾——一次性输出二十条视频prompt变体。每一条都不一样,但都是基于同一个经过验证的结构生成的。

🌟创意思考被前置到了系统设计层面,到了生成环节就是纯粹的执行。

生成完的视频丢给组装技能,自动把hook片段、正片内容、CTA结尾拼在一起,叠上logo、字幕、标签,位置和尺寸根据视频分辨率自动算好。出来就是可以直接传到广告后台的成品。

角色一致性的问题也解决了。AI视频最头疼的就是character drift——你的角色换个镜头就长得不一样,观众一眼就能看出来是AI。我们在Kling和Seedance上搭了一套角色身份库,每个角色是
一个JSON文件,锁定五官比例、肤色、体型、发型、标志性配饰,生成的时候挂载上去,几十条视频里同一个人保持一致。

投放数据那头也接上了。Meta广告数据自动拉回来,按创意变量拆分:哪个角色在转化、哪个场景成本最低、哪种hook类型点击率最高。制作团队不需要猜下一批做什么,看这张表就知道算法在告诉你什么东西在起效。

整条链路走通之后,一个下午可以完成从"这条TikTok火了"到"这里有二十条基于它为什么火而生成的广告变体"的全流程。这在一个月前是不可能的事情。

但工具只是一半。另一半是用这套工具的人。这可能是这一个月里我最想说的部分。

我们招了四个人进ABG Army。三个年轻人,一个资深视频剪辑师。四个人没有一个碰过Claude Code,没有一个写过任何AI工作流。有一个进来的时候连终端都没打开过,不知道命令行是什么。

我没有给他们上课。没有做培训PPT,没有搞什么"AI入门三天速成"。方式很简单也很残酷,直接给真实任务、真实deadline,遇到不会的现场查现场解。每天一起搭,每天一起踩坑,每天收工的时候比早上多会一点东西。

现在团队有了固定的周度投放复盘节奏,campaign数据和创意策略在同一张桌子上看。有agency partner接进来跑同一套数据流。有一条能从爆款拆解一路走到批量生成的素材管线。有一个虽然只有几个人但每个人都能独立搭工具的团队。

这些东西三十天前全部不存在。

当然我们还差得很远。素材疲劳的周期还是比我想要的快。注册之后的漏斗追踪有缺口,意味着我们对用户从注册到付费这段路径的理解还是模糊的。我不知道的东西,大概比我现在意识到的要多得多。

但机器在转了。数据在流,素材在出,团队在长。每周回头看上一周,都会觉得上周的自己挺蠢的。这大概就是对的方向。

虽然才30天,但我们才刚刚开始💜

(100%原创,如有任何行为的转发,必须经过本人同意)
 
 
Back to Top