我是小飞侠,旅居荷兰的 AI 工作流实践者。
一人公司,什么都得自己扛——
接单、回消息、发内容、整理数据……
我用 OpenClaw 把重复的事交给 AI,
今天分享的,是我踩了好几次才跑通的视频文案采集自动化。
一个人做内容,素材搜集是真的累
前段时间接了个项目,需要每天输出内容,灵感枯竭的时候就得去各大平台找素材。
你知道那种感觉吗?
刷抖音看到好的文案,截图→整理到文档→分类标签
刷小红书看到不错的标题,复制→粘贴→备注来源
看 B 站视频有启发,记笔记→提取要点→存档
每天光是这个素材收集,就要花 2 个小时。
一个人做生意,这种重复劳动真的耗不起。
AI 能帮我自动采集视频文案吗?
某天晚上又在手动整理文案的时候,我突然想:能不能让 AI 帮我自动采集这些内容?
于是我开始琢磨怎么搭一个「视频文案采集器」。
核心思路很简单:
- 1. 输入视频链接
- 2. AI 自动提取文案内容
- 3. 按我的需求分类整理
- 4. 存档到我的素材库
说干就干。
我是这样搭建自动化工作流的
第一步:选择合适的 AI 工具
市面上有很多视频转文字的工具,但大部分都是付费的。
我试了几个免费方案:
- • Whisper:OpenAI 开源的语音转文字,准确率很高
- • 剪映的语音识别:免费且支持多语言
- • 讯飞语记:国内产品,中文识别不错
最后选了 Whisper,因为它可以本地部署,不用担心数据泄露。
第二步:搭建提取流程
我用 Python 写了一个简单的脚本:
# 核心逻辑(简化版)
import whisper
import yt_dlp
def extract_video_script(video_url):
# 1. 下载音频
ydl_opts = {
'format': 'bestaudio/best',
'outtmpl': 'temp_audio.%(ext)s'
}
with yt_dlp.YoutubeDL(ydl_opts) as ydl:
ydl.download([video_url])
# 2. 语音转文字
model = whisper.load_model("base")
result = model.transcribe("temp_audio.m4a")
# 3. 返回文案
return result["text"]第三步:加入 AI 分析
光有文案还不够,我需要 AI 帮我:
- • 提取核心要点
- • 分析表达技巧
- • 给出应用建议
于是接入了 GPT API:
def analyze_script(script_text):
prompt = f"""
请分析这段视频文案:
文案内容:{script_text}
请从以下角度分析:
1. 核心观点(3个要点)
2. 表达技巧(开头、转折、结尾)
3. 适用场景
4. 可借鉴的金句
请用结构化格式输出。
"""
# 调用 GPT API
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": prompt}]
)
return response.choices[0].message.content第四步:自动化存档
分析完的内容需要自动存档到我的素材库。
我用了一个简单的方案:
- • 自动生成 Markdown 文件
- • 按日期和分类建立文件夹
- • 同时更新到 Notion 数据库
实际使用效果怎么样?
这套工作流跑起来后,我的素材收集效率提升了至少 80%。
之前的流程:
- • 看视频 → 手动记录 → 整理分类 → 存档
- • 每个视频 15-20 分钟
现在的流程:
- • 复制链接 → 粘贴到工具 → 自动分析存档
- • 每个视频 2-3 分钟
更重要的是,AI 的分析比我自己总结的更全面:
- • 它能发现我忽略的表达技巧
- • 提供不同角度的解读
- • 给出具体的应用建议
我踩过的几个坑
坑1:音频质量影响识别准确率
刚开始识别出来的文案错字很多,后来发现是音频质量问题。
解决方案:下载时选择最高音质,识别前做降噪处理。
坑2:长视频处理太慢
超过 30 分钟的视频,处理时间会很长。
解决方案:增加视频分段功能,每 10 分钟切一段,并行处理。
坑3:AI 分析不够精准
最开始的 prompt 写得不好,AI 经常答非所问。
解决方案:不断优化 prompt,加入具体的输出格式要求。
完整工作流配置(可复制)
如果你也想搭建这样一个文案采集器,这是我的完整配置:
环境准备
# 安装必要工具
pip install whisper
pip install yt-dlp
pip install openai
pip install requests核心脚本
import whisper
import yt_dlp
import openai
import os
from datetime import datetime
class VideoScriptCollector:
def __init__(self, openai_key):
self.whisper_model = whisper.load_model("base")
openai.api_key = openai_key
def process_video(self, video_url, category="通用"):
# 下载音频
audio_file = self.download_audio(video_url)
# 提取文案
script = self.extract_script(audio_file)
# AI 分析
analysis = self.analyze_script(script)
# 保存结果
self.save_result(script, analysis, category)
# 清理临时文件
os.remove(audio_file)
return {"script": script, "analysis": analysis}
def download_audio(self, url):
ydl_opts = {
'format': 'bestaudio/best',
'outtmpl': 'temp_%(epoch)s.%(ext)s'
}
with yt_dlp.YoutubeDL(ydl_opts) as ydl:
info = ydl.extract_info(url, download=True)
return ydl.prepare_filename(info)
def extract_script(self, audio_file):
result = self.whisper_model.transcribe(audio_file)
return result["text"]
def analyze_script(self, script):
prompt = f"""
分析这段视频文案,提取可用素材:
文案:{script}
请按以下格式输出:
## 核心观点
- 观点1
- 观点2
- 观点3
## 表达技巧
- 开头:
- 转折:
- 结尾:
## 金句摘录
- 句子1
- 句子2
## 应用场景
适合用于:
"""
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": prompt}]
)
return response.choices[0].message.content
def save_result(self, script, analysis, category):
timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
filename = f"素材_{category}_{timestamp}.md"
content = f"""# 视频文案素材
时间:{datetime.now().strftime('%Y-%m-%d %H:%M:%S')}
分类:{category}
## 原文案
{script}
## AI 分析
{analysis}
"""
with open(filename, 'w', encoding='utf-8') as f:
f.write(content)
# 使用示例
if __name__ == "__main__":
collector = VideoScriptCollector("your-openai-api-key")
# 处理单个视频
result = collector.process_video(
"https://www.douyin.com/video/xxxxx",
category="营销文案"
)
print("处理完成!")批量处理脚本
如果你有一堆视频链接要处理:
# 批量处理
video_list = [
{"url": "链接1", "category": "教程类"},
{"url": "链接2", "category": "营销类"},
# ... 更多链接
]
for item in video_list:
try:
result = collector.process_video(item["url"], item["category"])
print(f"处理成功:{item['url']}")
except Exception as e:
print(f"处理失败:{item['url']} - {e}")这套工作流帮我省了多少时间?
数据说话:
- • 之前:每天手动收集整理素材 2 小时
- • 现在:批量处理 + AI 分析 20 分钟
- • 时间节省:每天 1 小时 40 分钟
- • 质量提升:AI 分析比手动总结更全面
一个月下来,光是这一件事就帮我省了 50 个小时。
这 50 个小时,我可以用来:
- • 专心创作更有价值的内容
- • 跟客户深度沟通需求
- • 学习新的技能和工具
几个使用建议
如果你也想用这套方案,有几点建议:
1. 先从免费方案开始
不要一上来就用付费 API,先用免费的 Whisper 跑通流程,确认有价值再考虑升级。
2. 根据自己的内容类型调整 prompt
我的 prompt 是针对营销文案优化的,如果你做教程类内容,需要调整分析角度。
3. 建立自己的分类体系
不要照抄我的分类,根据你的业务需求建立分类标签,这样后期查找更方便。
4. 定期清理和优化
素材库会越来越大,记得定期清理过时内容,优化工作流效率。
AI 真的改变了内容创作的方式
说实话,这个小工具让我重新思考了 AI 在创作中的角色。
AI 不是来替代我们的,而是来处理那些重复、机械的工作,让我们能专注在更有价值的事情上。
现在我每天的工作节奏是:
- • 早上用 AI 工具批量收集素材
- • 上午专心创作核心内容
- • 下午处理客户沟通和业务
效率提升的同时,工作质量也在提高。
因为我有更多时间去思考:
- • 读者真正需要什么内容?
- • 怎样表达更有说服力?
- • 如何提供更大的价值?
这些是 AI 做不了的,但 AI 可以帮我腾出时间去做这些事。
你现在每天在重复做哪件事?
一人公司,时间比钱还贵。
如果你也有一件事想交给 AI 自动化,但不知道怎么搭——
可以直接加我微信 [xiaotangguo1319],聊聊你的场景。
夜雨聆风