乐于分享
好东西不私藏

我用这个开源工具,一个人做完了一整部AI短剧

我用这个开源工具,一个人做完了一整部AI短剧

编剧、分镜、生成、剪辑,全流程一个人搞定

最近有个开源项目,在AI创作者圈子里悄悄火了。

没有营销,没有包装,但它做了一件事:把原本需要一个团队才能完成的短剧制作,压缩成一个人、一台电脑就能跑的流水线。

如果你在做短视频、AI内容,或者正考虑入局短剧赛道,这篇文章值得你认真看完。

先说一个扎心的现实

做一部短剧,哪怕是最简单的竖屏微短剧,通常需要:

  • 编剧(写剧本)

  • 分镜师(拆镜头)

  • 美术/角色设定(保证统一)

  • 视频生成/拍摄

  • 剪辑 + 配音 + 后期

但是用AI制作过程中通常会遇到一些问题:一致性崩塌 + 流程割裂

  • AI生成角色“上一秒长这样,下一秒换张脸”

  • 场景、道具频繁“漂移”

  • 分镜靠人脑,效率极低

  • 剪辑与生成完全脱节

而 Jellyfish 的核心价值,可以用一句话概括:

把“短剧制作”从创意工作,变成工程化流程。

Jellyfish到底做了什么?

它不是一个单点工具,而是一个完整生产链路系统

1、输入剧本 → 自动生成分镜

你只需要提供文本剧本,它会自动完成:

  • 场景拆解

  • 镜头划分

  • 角色出场逻辑

  • 画面描述结构化

相当于一个“AI分镜导演”

2、强一致性控制(这是核心)

这是目前绝大多数AI工具做不到的:

  • 角色外观锁定(脸、服装、风格)

  • 场景连续性保持

  • 道具不漂移

换句话说:它不是在“生成图片”,而是在“维护一个世界观状态”。这一步,直接解决了AI短剧最大的痛点。

3、一键生成视频

在分镜基础上:

  • 自动逐镜头生成画面

  • 拼接为视频

  • 支持竖屏(适配抖音/视频号)

从“单图AI”跨越到“连续叙事AI”

4、内置多轨剪辑系统

不是简单拼接,而是:

  • 多轨道编辑(视频 / 音频 / 字幕)

  • 节奏控制

  • 可视化调整

它不是工具,而是一个“AI版Premiere + Runway”的融合体

5、一键导出完整短剧

最终你得到的不是素材,而是:

  • 成片视频

  • 可直接发布

  • 完整叙事结构

为什么说它正在改变内容生产?

它改变的不是效率,而是生产关系

过去:团队 = 内容产能

现在:工具 = 内容产能

这带来三个巨大变化:

(1)创作门槛被大幅拉低

不需要剪辑经验、不需要美术能力、不需要拍摄设备,一个普通人,也能做“连续剧情内容”

(2) 内容生产进入“工业化”阶段

你可以:批量生成短剧、测试多个剧情版本、快速迭代爆款方向,内容开始像代码一样“可编译、可复用”

 (3)AI短剧赛道正在加速

参考路径已经很清晰:

  • AI图文 → 爆发(2023)

  • AI视频 → 起飞(2024)

  • AI短剧 → 正在进入爆发期(2025-2026)

而 Jellyfish,正好卡在这个拐点上。

谁最适合用这个工具?

如果你是以下人群,优先级很高:

AI内容创作者:想从“图文”升级到“视频叙事”

短视频运营:需要低成本测试剧情内容

剧本作者:想把文字变成“可视化产品”

独立开发者 / AI玩家:想参与下一波内容红利

它的真正价值,不是工具,而是“范式变化”

很多人看到 Jellyfish,会觉得:

“哦,一个更强的视频生成工具”

但实际上,它更接近:

“AI影视流水线操作系统”

它的意义在于:把创作拆成模块、用AI连接每个模块、最终实现自动化生产,这件事一旦成熟,会带来一个结果:未来1–2年,短剧制作中AI的参与度,会远超我们今天的想象。

写在最后:一个机会窗口

每一轮技术变革,都会出现一类人:

  • 第一批用工具的人

  • 第一批做内容的人

  • 第一批赚到红利的人

现在的问题不是:

“AI短剧会不会火?”

而是:

“你会不会是第一批做的人?”

项目地址点击阅读原文即可立即开始 

给你的一个建议

不要只“看懂”,要“用起来”。哪怕只做一件事:把你写过的一段故事,用AI变成一个短剧,你会立刻感受到,这个时代已经变了。

你试过用AI做短剧吗?最卡在哪一步?

欢迎在评论区交流,我会挑几个典型问题,专门出一期实操避坑指南。