AI 解说剪辑软件开发进度
今天主要把视频翻译工具往“能批量产出,再进剪映精修”的方向推了一大步。下午先打通了剪映草稿导入:新增了剪映草稿生成逻辑,把成功任务里的原视频、TTS 分段音频和翻译字幕组织成剪映可识别的草稿文件,并在前端任务列表里加上了“导入剪映”和“一键导入剪映”。这样成片不再只能停留在工具内预览,而是可以直接进入后期编辑流程。音频这块也做了比较关键的调整。原来对齐阶段会尝试压缩配音去卡时间窗,今天改成按原始开始时间放置配音片段,再用 ffmpeg 延迟和混音生成整条配音轨。这个选择更偏向保留自然语速,把精修空间留给剪映。为了配合这个方向,又新增了本地 TTS 语速画像:系统会根据历史样本、源语速和冷启动样本推断推荐 speed,并记录过长或过短的片段,后续生成会越来越有经验。前端体验顺手清理了一轮:去掉手动语速输入,加入只读的字幕识别模型展示,阶段日志变得更中文、更贴近用户理解,比如“字幕识别”“洗稿”“配音合成”“视频合成”。任务列表也支持成功任务的一键导出和一键导入剪映。最后把版本号从 3.2.7 提到了 3.3.0。总体看,昨天不是零散修补,而是在重塑视频翻译的后半段工作流:从“自动生成一个结果”,变成“自动生成可继续编辑的素材工程”。这一版的核心气质很明确:自动化负责铺路,剪映负责最后的手感。
夜雨聆风