乐于分享
好东西不私藏

腾讯开源新项目:让文档"活起来"的 AI 知识管理框架 WeKnora

腾讯开源新项目:让文档"活起来"的 AI 知识管理框架 WeKnora

点击上方蓝字【Ai小虾咪】关注我,获取热门AI资讯

文章内容概要

WeKnora(维娜拉) 是腾讯开源的企业级 LLM 知识管理框架,专为企业级文档理解、语义检索与智能推理场景打造。它不仅能检索文档,还能自主推理、自动生成知识图谱,把分散的文档沉淀为可查询、可推理、可持续演进的专属知识资产。

三大核心能力:RAG + Agent + Wiki 三合一

RAG 快速问答 —— 日常知识查询利器

基于知识库的检索增强生成(RAG),适合处理日常的知识查询需求。员工提出问题后,系统自动从企业文档库中检索相关信息,结合大模型生成精准答案。

适用场景:公司制度查询、产品手册检索、常见问题解答等。

ReAct Agent 智能推理 —— 复杂任务的自主编排者

ReAct Agent 能够自主编排知识检索、MCP 工具调用和网络搜索,通过多次迭代和反思完成复杂的多步任务。

举个例子

  • • 用户问:”帮我分析上个季度的销售数据,找出表现最好的三个区域,并给出改进建议”
  • • Agent 会自动:查询数据库 → 分析数据 → 调用图表工具 → 生成报告 → 提出建议

Wiki 模式(v0.5.1 新特性)—— 自动构建知识图谱

这是 WeKnora 最新的杀手锏!Agent 可以从原始文档中自治生成相互链接的Markdown知识库,并构建可视化知识图谱,直观呈现页面之间的引用与关联关系。

核心价值

  • • 自动梳理文档间的逻辑关系
  • • 生成结构化的知识库
  • • 可视化展示知识脉络
  • • 支持持续迭代演进

五大核心亮点,为什么选择 WeKnora?

亮点 1:超强集成能力,兼容 20+ 主流模型

模型厂商支持:OpenAI、Azure OpenAI、DeepSeek、Qwen(阿里云)、智谱、混元、Gemini、MiniMax、NVIDIA、Ollama 等 20+ 家主流厂商。

IM 平台集成:企业微信、飞书、Slack、Telegram、钉钉、Mattermost、微信 —— 7 大平台全覆盖。

向量数据库:PostgreSQL (pgvector)、Elasticsearch、Milvus、Weaviate、Qdrant —— 5 种主流方案任选。

对象存储:本地存储、腾讯云 COS、火山引擎 TOS、MinIO、AWS S3、阿里云 OSS —— 6 种存储方案灵活配置。

亮点 2:完全私有化部署,数据自主可控

  • • 模块化架构设计,各组件可独立替换
  • • 支持本地部署、Docker Compose 一键启动、Kubernetes Helm Chart 集群部署
  • • 数据完全掌握在自己手中,满足企业合规要求
  • • AES-256-GCM 加密保护 API 密钥等敏感信息

亮点 3:Langfuse 全链路可观测性

集成 Langfuse 监控平台,深入跟踪:

  • • Agent ReAct 循环过程
  • • LLM Token 消耗统计
  • • 工具调用详情
  • • asynq 任务流水线状态

让每一次 AI 推理都透明可控,便于性能优化和问题排查。

亮点 4:数据源无缝接入,自动同步

支持平台:飞书、Notion、语雀(更多持续接入中)

同步方式

  • • 全量同步:首次导入全部文档
  • • 增量同步:定时检测更新,自动同步新增/修改内容

文档格式:PDF、Word、Excel、PPT、图片、Markdown 等 10+ 种格式全覆盖。

亮点 5:配套工具生态完善

Chrome 插件:浏览网页时一键采集内容到 WeKnora 知识库。

微信小程序:轻量级移动端客户端,随时随地配置 API、选择知识库、导入 URL 并进行知识对话。

ClawHub Skill:通过 REST API 上传文档、执行混合检索及管理知识条目,方便与其他系统集成。

架构设计:四层模块化架构

架构优势

  • • 完全模块化,各组件可独立替换升级
  • • 支持水平扩展,应对高并发场景
  • • 清晰的职责划分,便于维护和定制开发

五大典型应用场景

场景 1:企业知识库问答

痛点:公司内部文档分散在多个系统,员工查找信息效率低。

WeKnora 方案

  • • 自动同步飞书/语雀/Notion 文档
  • • 员工通过企业微信/飞书直接提问
  • • 秒级返回精准答案,附带原文出处

预期效果:信息查询时间从平均 15 分钟缩短至 30 秒。

场景 2:智能客服系统

痛点:人工客服成本高,响应速度慢,无法 7×24 小时在线。

WeKnora 方案

  • • 接入微信/Slack 等 IM 渠道
  • • 7×24 小时自动回答客户常见问题
  • • 复杂问题自动转接人工客服

预期效果:80% 常见问题由 AI 自动处理,人力成本降低 60%。

场景 3:研发文档助手

痛点:技术文档更新频繁,开发人员难以快速找到所需 API 用法。

WeKnora 方案

  • • 自动同步技术文档、API 手册
  • • 开发人员随时询问:”XXX 接口怎么用?”
  • • 返回代码示例 + 参数说明 + 注意事项

预期效果:新人上手时间缩短 50%,文档查阅效率提升 3 倍。

场景 4:培训学习平台

痛点:传统培训材料静态枯燥,新员工学习主动性不足。

WeKnora 方案

  • • 将培训材料转化为可交互的知识库
  • • 新员工自助学习,随时提问
  • • 系统自动生成推荐问题引导学习

预期效果:培训完成率提升 40%,学习效果可量化追踪。

场景 5:合规与审计

痛点:合同、政策文档数量庞大,风险条款难以快速定位。

WeKnora 方案

  • • 自动分析合同、政策文档
  • • 支持多轮追问:”这条款有什么风险?”
  • • 生成风险评估报告

预期效果:合规审查效率提升 5 倍,风险遗漏率降低 80%。


快速开始:3 条命令搭建第一个知识库

前置条件

  • • Docker 和 Docker Compose 已安装
  • • 至少 4GB 可用内存
  • • 一个可用的大模型 API Key(可选,可使用 WeKnora Cloud)

三步启动

1
2
3
4
5
6
7
8
9
10

# 1. 克隆项目git clone https://github.com/Tencent/WeKnora.git# 2. 进入目录并配置环境变量cd WeKnoracp .env.example .env# 编辑 .env 文件,填入你的大模型 API Key 等配置# 3. 一键启动docker compose up -d

启动成功后,访问 http://localhost 即可使用 WeKnora!

后续步骤

  • • 1.创建第一个知识库
  • • 2.导入文档(支持拖拽上传、URL 导入、飞书/Notion/语雀同步)
  • • 3.配置对话模型
  • • 4.邀请团队成员
  • • 5.在企业微信/飞书中启用机器人

方案对比:WeKnora vs 其他方案

维度
传统知识库
纯 RAG 方案
商业 SaaS
WeKnora
智能推理
仅关键词匹配
基础问答
有限支持
ReAct Agent 深度推理
知识图谱
部分支持
自动构建 Wiki 知识图谱
私有化部署
支持
支持
不支持
完全支持,数据自主
模型兼容性
有限
绑定特定模型
20+ 厂商自由选择
IM 集成
需定制
需定制
有限
7 大平台开箱即用
成本
高(订阅费)
低(开源免费)
可观测性
基础日志
部分支持
Langfuse 全链路追踪

项目地址:https://github.com/Tencent/WeKnora开源协议:MIT最新版本:v0.5.1(2026 年 4 月 30 日更新)相关链接

GitHub 仓库:https://github.com/Tencent/WeKnora官方文档:https://weknora.weixin.qq.com在线体验:https://weknora.weixin.qq.com/platformClawHub Skill:https://clawhub.ai/lyingbug/weknora