我做了一个 AI 视频反推工具:看到爆款广告,就能拆出同款分镜和提示词
很多人用 AI 做视频,真正卡住的不是“不会生成”。
而是看到一个很高级的广告片,明明知道它好看,却说不清它到底好在哪里。
比如一个啤酒广告、可乐广告、护肤品广告:
产品什么时候出现?镜头是推近还是横移?主体是正放、倾斜、旋转,还是撞击?光是从左边打,还是背后打?冰块、泡沫、水珠、液体飞溅这些细节,该怎么写进提示词?
很多人最后只能写出一句:
“商业广告大片,高级光效,产品特写,电影感。”
然后生成出来的画面,看起来完全不是同一个视频。
所以我做了一个小工具,专门解决这件事:
把一个参考视频,反推出可以复刻的 AI 视频分镜和提示词。
它不是简单截图,也不是每隔几秒随便抽一帧。
它的逻辑是:
按镜头切换抽帧,再根据视频真实动作,拆出每一个镜头的时间、构图、运动、光效和声音节奏。
也就是说,抽帧只是为了定位画面。
真正写提示词时,看的不是单张图,而是整个视频里的动作关系。
比如一个画面里有两罐饮料。
普通抽帧可能只会描述成:
“两罐饮料左右对称摆放在冰块后方。”
但如果你真的看视频,可能会发现它其实是:
“两罐饮料从左右两侧快速进入画面,在中央发生碰撞,冰块和水花被撞起,镜头瞬间加强冲击感。”
这两种提示词生成出来,完全不是一个东西。
这也是我做这个 skill 的原因。
它的标准流程只有两步。
第一步:给视频链接或视频文件,按镜头切换抽帧。
它会把视频拆成:
图1、图2、图3、图4……
每张图都对应一个镜头节点,而不是固定每 4 秒抽一张。
同时它会整理出镜头时间,比如:
镜头1:0.001s 到 1.280s镜头2:1.281s 到 2.640s镜头3:2.641s 到 4.100s
并且会先停下来,让我检查一遍:
镜头有没有漏?切点准不准?分段是否适合生成?
因为现在很多图生视频工具,一段最好控制在 10 到 14 秒,不适合一口气生成 30 秒。
第二步:换主体,改提示词。
比如原视频是可乐广告,我可以换成自己的啤酒、饮料、包装盒、护肤品、食品、潮玩,甚至人物。
它不会帮我乱改画面,而是保留原视频的结构:
镜头节奏不变。产品位置不变。倾斜角度不变。运动方向不变。碰撞、旋转、倒入、飞溅、推近这些动作不变。光效、景深、质感和声音节奏也尽量保持一致。
只是把原来的主体,替换成我自己的主体。
这样做的好处是,我不是从零开始写一个视频。
而是在复刻一个已经被验证过的优秀广告结构。
这对 AI 视频创作很重要。
因为很多时候,真正高级的不是单张画面,而是镜头之间的节奏:
产品怎么入场。什么时候给特写。什么时候制造冲击。什么时候切到质感细节。什么时候用冰块、液体、泡沫、光斑来增加高级感。
这些东西如果只靠一句“高级商业广告”,AI 很难理解。
但如果拆成镜头级提示词,它就清楚很多。
这个 skill 最适合几类人:
做 AI 视频广告的人。做电商产品短片的人。做品牌视觉参考的人。想复刻爆款视频节奏的人。不会从零写复杂图生视频 prompt 的人。
我现在用它的思路很简单:
看到一个喜欢的视频,先拆。拆出镜头、时间、动作和构图。再上传自己的主体图。最后生成同款结构的分镜提示词。
它的核心不是“抄画面”。
而是学习一个好视频的镜头语言,然后把它变成自己的产品表达。
以后看到一个爆款视频,我不会再只说:
“这个好高级。”
我会把它拆成:
镜头1怎么拍。镜头2怎么动。镜头3怎么切。产品在哪里。光怎么打。水花怎么炸。节奏怎么起伏。最后每一段该怎么生成。
这就是我想要的 AI 视频工作流。
不是碰运气生成。
而是有参考、有结构、有镜头逻辑地复刻。
夜雨聆风