乐于分享
好东西不私藏

从论文到科普视频,科研人必学的 AI 工具栈:LLM、NotebookLM、Python、N8N 全解析

从论文到科普视频,科研人必学的 AI 工具栈:LLM、NotebookLM、Python、N8N 全解析

已关注

关注

重播 分享

在科研范式全面转向智能化的今天,大语言模型与 AI 工具已不再是锦上添花的辅助,而是决定效率、精度与创新力的核心生产力。从文献研读、数据处理、代码编写,到论文写作、成果可视化、科研自动化,AI 正在重构从想法到产出的全链路,让研究者从重复劳动中解放,专注于真正的原创思考与科学突破。但会用 AI≠用好 AI,盲目依赖通用模型易陷入幻觉、低效与失范,唯有清晰界定不同模型的能力边界、匹配任务与工具、搭建可信的智能科研体系,才能让 AI 成为严谨、可控、可溯源的科研伙伴。为了帮你从 “会用 AI” 升级为 “因任务选模型、因资料选工具” 的高效研究者,为此,我们精心策划了几场深度实战教程,覆盖大模型选型、数据智能、文献管理、论文写作、可视化、本地部署、自动化工作流等核心场景,用十一大模块打通理论与实战,让每一位科研人都能构建专属智能科研系统,真正实现高质量、高效率、高可信的科研产出。

🌟 课程一2026最新AI驱动科研全链路实战营:贯通LLM与Notebooklm应用、数据分析、自动化编程、文献及知识管理、科研写作与绘图、构建个人AI助手与科研工自动化作流


🌟 课程二:一图胜千言-顶刊级科研绘图工坊暨AI支持下的Nature级数据可视化方法与实战

    🌟 课程三:基于claude code、codex双AI协同论文写作撰写与质量校准:从”数据分析→论文初稿→交叉审稿”全流程


    🌟 课程四:最新AI-Python机器学习、深度学习核心技术与前沿应用及Agent自动化全链路实践高级研修班

      🌟课程五:关于举办“OpenClaw、Hermes+Vibe Coding核心实战玩法,手把手教你本地部署与云端协同,实现知识、论文自动化工作流”培训班


        🌟 课程六:最新Hermes Agent 技能封装与科研自动化实战:以 Meta-Analysis 为例-实现从文献检索到绘图的一站式工作流培训班

            📚 课程一

            培训时间:5月16日-17日

            学习方式:线上直播+助学群长期辅助指导+永久回放特权课程内容

            已关注

            关注

            重播 分享


            📋 课程内容简要

            科研真正的挑战从来不是“有没有答案”,而是:

            如何通过AI助力个人高效科研学习成长,如何高效整合信息、持续产生高质量 IDEA,并把研究想法快速转化为可发表成果。

            而这些,正是大多数通用AI使用方式所无法解决的。

            本课程是一门面向科研人员、研究生、博士生、高校教师以及高端知识工作者的系统化实战训练营,以“工具即生产力,Agent即科研合作者”为核心理念,带你从“使用AI”进阶到“构建AI系统”。课程将系统讲解如何将主流大语言模型深度融合进:

            1.科研写作与论文生产流程

            2.实验与科研数据分析

            3.文献管理与知识体系构建

            4.科研绘图与学术级可视化表达

            5.多模型协作的创新型科研思考

            6.基于NotebookLM 的研究资料整合、来源引用与可信推理

            7.使用NotebookLM48小时通过一门课、掌握一系列知识点

            8.Google生态系统自动化科研工作流与AI Agent系统

            9.OpenClaw和Claude Code个人AI助手结合Agent Skills技术自动化生成论文

            10.Seedacnce2.0视频大模型生成科研科普视频

            通过真实科研场景与完整案例,你将学会如何让AI主动协助你思考、决策与创作,而不仅仅是被动回答问题。

            通过本课程,你将不只是学会“使用AI”,而是能够真正做到:

            1.构建属于自己的科研AI Agent,让AI成为你的长期研究助手

            2.打造可持续复利的个人科研系统,知识与成果持续积累

            3.显著提升科研效率与创新能力,减少重复劳动,专注高价值思考

            4.让AI成为你稳定、可靠、可进化的科研合作者

            这不是一门“教你玩AI的课程”,而是一门帮助你在AI时代建立长期科研竞争力的系统训练营。最后将总结Google Gemini(Nano Banana),Notebooklm,OpenClaw,Claude Code,Seedance等一系列AI大模型的不同应用范围,如何使用这些打造专属个人自动科研系统。

            当前AI发展日新月异,大模型迭代速度显著加快,或许有一天人类终将被AI淘汰,但希望你我不是最先被AI淘汰的个人。

            第一章、大语言模型(ChatGPT、Claude、Gemini、DeepSeek与NotebookLM的能力边界:从“会用AI”到“因任务选模型”
            真正理解不同LLM与知识增强型AI(NotebookLM)的能力边界
            学会在科研和高端工作中“因任务选模型,因资料选工具”
            核心内容:
            1.主流大模型能力拆解
            ChatGPT(科研写作、逻辑推理、通用科研助理)
            Claude(长文档处理、论文润色、风格一致性)
            Gemini/Nano Banana(多模态、图像/视频/API调用)
            DeepSeek(数学推理、代码、开源与本地部署)
            2.NotebookLM:以“你的资料”为核心的科研AI
            NotebookLM的设计理念:
            不是生成答案,而是“基于你提供的材料进行推理”
            NotebookLM与通用LLM的本质区别
            为什么NotebookLM特别适合科研与严肃写作
            所有结论可溯源
            自动标注引用来源
            避免“无根据幻觉”
            典型科研使用场景
            多篇论文联合分析
            项目材料/课题资料整合
            论文写作中的“证据驱动型推理”
            3.大模型“智能”从何而来
            Transformer的直观理解
            Token、上下文窗口、推理链
            为什么通用LLM会“幻觉”,而NotebookLM更“克制” 
            Prompt提示词的使用和收藏(通过LLM举一反三生成Prompt提示词)
            4.科研与工作的模型选型策略
            写论文vs想IDEA
            画图vs数据分析
            自由发散型思考(ChatGPT/Claude)vs基于资料的严谨推理(NotebookLM)
            什么时候该“问模型”,什么时候该“喂资料”
            案例1:
            同一篇论文IDEA,分别使用:
            ChatGPT(自由生成摘要)
            Claude(润色与结构优化)
            DeepSeek、Qwen(方法与数学逻辑)
            NotebookLM(基于真实文献生成可溯源摘要)
            对比:
            逻辑严谨性
            创新点来源
            引用可信度
            幻觉风险差异
            结课成果
            一份《科研任务×大模型×NotebookLM选型指南》
            明确你的科研工作中:
            谁负责“想”
            谁负责“写”
            谁负责“证据与可信推理”
            第二章、LLM + Excel科研数据分析的智能化与自动化生成
            用自然语言“操控”Excel,让Excel成为科研数据分析助手
            核心内容:
            1.LLM自动生成复杂公式
            2.科研数据清洗与异常检测
            3.统计结果自动解读与文字化
            4.Excel→论文结果段落自动生成
            5.生成python语言绘图excel相关数据
            6.LLM分析数据质量是否能用于科研
            案例2:
            上传实验数据→LLM自动完成:
            统计分析
            图表生成思路
            结课成果:
            一套「Excel+LLM数据分析模板」

            通过大语言模型生成数据统计图

            第三章、LLM × Python 科研计算自动化与高效编程助力
            让不会写代码的人,也能把Python 变成科研生产力
            让会写代码的人,用LLM进入10×效率区间
            核心内容:
            Python是科研的“发动机”,LLM是科研的“驾驶系统”
            你只负责:提出研究问题,判断结果是否合理
            AI负责:写代码,改代码,查Bug,重构流程,核心内容
            科研人员应该如何“正确使用Python”
            为什么Excel只能解决30%的科研数据问题
            哪些科研任务必须用Python
            大规模数据
            重复实验分析
            复杂统计与建模
            图像/时间序列/多变量分析
            Python在科研中的真实定位:
            不是“编程语言”
            而是科研流程自动化工具
            LLM自动生成科研级Python代码
            你将学会如何正确“指挥”LLM写代码
            包括:
            1.用科研语言描述问题→自动生成:
            数据读取
            清洗
            统计分析
            可视化
            从「实验设计描述」直接生成Python分析脚本
            2.自动补全:
            pandas
            numpy
            scipy
            statsmodels
            matplotlib/seaborn
            案例3:
            任务:上传一份真实实验数据(CSV/Excel)
            系统自动完成:
            LLM生成 Python分析脚本
            自动完成统计分析
            自动生成科研级图表
            自动输出Results段落初稿
            最终成果:
            一个可复现Python脚本
            一张可直接用于论文的图
            一段可直接写进论文的结果描述
            第四章、Zotero×NotebookLM ×LLM智能文献管理与证据驱动科研写作
            从“存论文”升级为“以文献为证据核心的可推理科研系统”,让AI不再“凭空总结”,而是基于真实文献进行可溯源分析与写作
            核心内容:
            1.Zotero高效文献管理
            批量PDF智能总结

            Zotero的配置和安装
            跨文献研究脉络分析
            为论文写作提供引用建议
            2.NotebookLM:文献级科研推理中枢
            为什么NotebookLM是文献管理的“第二大脑”
            所有分析基于你上传的PDF
            每一个结论都可追溯到具体文献段落
            NotebookLM的科研优势
            自动跨文献对比观点
            自动识别共识/分歧/演化路径
            自动生成带引用标注的研究总结
            与ChatGPT/Claude的根本差异
            3.防止“AI文献幻觉”的系统方法
            为什么“直接让 LLM 总结文献”是高风险行为
            NotebookLM如何从机制上避免虚假引用
            科研可信度的三层防线
            原始PDF(事实层)
            NotebookLM(推理层)
            LLM(表达层)
            案例4:
            任务:
            导入20篇某研究领域核心论文
            系统自动完成:
            Zotero:文献分类与标注
            NotebookLM 自动输出:
            研究脉络(含引用出处)
            主流方法对比表
            当前研究空白(有证据支撑)
            LLM(ChatGPT/Claude):
            将分析结果转化为:
            文献综述草稿
            引言逻辑段
            第六五、Overleaf + LLM全流程科研写作
            把论文写作变成“流程”
            核心内容:
            1.Latex语言的应用、
            2.Overleaf科研写作规范
            3.LLM生成论文结构
            4.分章节生成论文初稿
            5.Open AI Prism如何助力科研写作
            案例5:
            如何通过Open AI Prism实现全流程写作,快速处理数学公式,论文引用,如何通过GPT5.2大模型的多模态功能,将手写公式直接导入论文,避免复杂公式的时间消耗。
            第六章、一张图胜千言——从论文示意图到学术汇报Video
            不会画图,也能做 Nature和Science级科研表达
            核心内容:
            科研图像的设计逻辑
            API调用Gemini/Nano Banana
            如何通过Gemini/Nano Banana和NotebookLM生成系列的PPT和信息概念图,科研机制图。
            如何通过Google Slide结合Nano banana处理AI生成科研图细节错误
            当前Nature期刊表达AI生成的图不能放入论文中,我们有什么办法处理这个问题(通过Adobe Illustrate工具)
            利用NotebookLM生成学术汇报级Video和音频文件
            批量处理视频网页,结合Gemini的多模态系统,学习网上优质视频,自我成长
            案例6:
            输入论文方法描述→自动生成:
            通过Prompt提示词优化Nature和Science原图
            批量生产高质量科研示意图
            汇报用动画视频
            结课成果:
            一套论文插图+汇报Video
            NotebookLM能根据相同的内容,不同提示词设计风格和颜色产生不同的概念图(下面两图为相同内容不同设计分割和颜色)
            第七章、本地部署LLM与私有科研Agent,构建专属智能助手
            保护科研IDEA,构建专属AI助手
            核心内容:

            Ollama部署LLAMA/DeepSeek

            本地模型性能优化

            RAG构建个人知识库

            微调vs RAG的选择策略

            Open WenUI本地部署,

            如何结合Zotero和Open WenUI搭建本地知识系统

            在本地环境里构建类似NotebookLM的科研生态系统(不需要科学上网,就能运行)

            案例7:

            本地部署DeepSeek→构建:

            专属科研问答系统

            私有文献分析Agent

            结课成果:

            一个私有科研AI Agent

            第八章、多模型圆桌科研系统:用 AI进行真正的科研头脑风暴
            用AI进行真正的科研头脑风暴
            核心内容:

            多LLM分工机制

            批判型/创新型Agent设计

            自动迭代研究方案

            模型的能力越强,Idea的创意更好

            案例8:

            ChatGPT+Claude→自动进行多轮讨论,生成创新研究方向。

            结课成果:

            一份「可投稿级研究IDEA说明书」

            第九章、科研自动化与智能化工作流:N8N × LLM 构建高效科研系统
            实现“科研自动化”
            核心内容:

            N8N基础与部署

            多软件自动联动

            多模型优势整合

            全流程科研自动化设计

            整合Google工作系统流

            实战案例

            案例9:

            构建一个完整系统:

            通过DeepSeek创建全自动科研文献搜索总结系统

            最终交付:

            一套可长期使用的科研文献搜索总结自动化系统

            第十章、Open Claw与Agent Skill进阶——构建自主式写作智能体

            实现自助式写作智能体
            Open Claw核心机制
            Claude Code的使用
            Agent Skill技能封装
            本地化环境搭建
            写作指南 (Writing Guide) 建立
            案例 10:
            构建自助式写作智能体 
            任务描述:
            根据相关数据和论文,由Agent Skill的智能体自动撰写一份科研文章。
            实战产出:
            自动化流水线: 无需人工干预,系统自动运行。
            高价值摘要:可结合知识库一起使用
            论文稿件: 根据数据生成文章,同时使用斯坦福的paper review Agent模仿审稿人提出意见,自动修改论文。

            第十一章、Seedance 2.0视频生产大模型基础与科研科普自动化

            科研科普视频的“内容结构模板”
            Seedance 2.0的“科研视频可控生成”关键概念
            用 Seedance 2.0自动化生成科研科普视频:标准工作流
            案例目标
            输入:一篇论文(PDF)或一段科研报告
            输出:一个60–90秒的竖屏科普视频(9:16),包含:
            讲解员(可选)
            机制动画
            结果对比图
            字幕 + 配音
            实操流程:
            资料准备:论文PDF+你自己写的5行要点(可选)
            NotebookLM:提取“核心机制、方法、结果、限制”(可溯源)
            LLM:把提取内容转成“8镜头分镜表 + 旁白稿”
            Seedance 2.0:按分镜逐镜生成(每镜5秒)

            📞 报名咨询

            陈召:18510371278(微电)
            QQ咨询:2671309781

            课程二

            培训时间:5月15日-16日、22日-23 日
            学习方式:直播课程+助学群长期辅助指导+永久回放特权
            课程内容:(上下滑动查看更多)
            第一章、绘图原则与概念:规范清晰简洁自明
            1. 理解顶刊图表的核心逻辑,避免“技术正确但科学无效”的绘图误区
            2. 四大原则:简洁性、一致性、准确性、自明性
            3. 图形的基本元素(尺寸、格式、分辨率、字体、配色、高分论文案例)
            4. Nature vs Science vs Cell图表风格及差异
            第二章、R语言与AI协同的智能绘图体系:八仙过海各显神通
            1. R语言的基本用法和数据处理
            2. R语言的做图系统
            (1)Rbase基础绘图系统:基础图形函数(plot、lines、points等)
            (2)ggplot2系统:层次化绘图理念,主题设计与自定义
            (3)lattice系统:多面板图形与条件绘图
            (4)plotly系统:交互式图表绘制与3D图形应用
            3. AI驱动的科研绘图工作流
            (1)Prompt生成:Gemini / DeepSeek / ChatGPT生成可运行R代码
            (2)AI辅助设计决策:输入数据类型→推荐最佳图表类型
            (3)自动标注与统计增强:用AI识别显著性差异→自动生成星号标注
            自动添加样本量(n=)、误差线类型(SD/SEM)
            第三章、科研图表的视觉美学与设计规范:完美图表华丽呈现
            图表的美学与设计
            1. 配色方案
            2. 标题
            3. 坐标轴设计
            4. 图例:清晰标注图例位置与内容
            5. 字体规范:字体大小、类型与间距的选择
            6. 线条:线条的粗细、样式选择及其与背景的对比
            7. 背景:透明或简洁背景设计,提高视觉清晰度
            第四章、数据驱动图表选择:15+科研场景匹配
            1. 常见数据格式:如何识别数据类型,选择适当图表
            2. 科研绘图全类型绘制
            (1)散点图、气泡图:适合显示两组数据关系
            (2)折线图、柱状图:趋势分析与比较
            (3)箱线图、小提琴图:数据分布分析
            (4)云雨图、直方图、密度图:数据分布的不同展示方法
            (5)饼图、雷达图、玫瑰图:比例关系与环形展示
            (6)热力图、聚类热图、相关矩阵图:数据相似性展示
            (7)瀑布图、条形图、面积图:时间序列或分布展示
            (8)冲积图、桑基图:展示流动与比例
            (9)词云图、关联图:文本数据与关系网络
            (10)环形图、和弦图:比例与结构关系
            (11)生存曲线图、漏斗图:生物医学与临床数据分析
            (12)森林图、韦恩图、upset图:元分析与交集分析
            (13)UMAP图、函数曲线图:降维与函数关系展示
            (14)箱线密度图、神经网络图:机器学习与深度学习数据展示
            (15)环形热图、公式图:其他特殊类型的应用
            3. 图表决策树:根据变量类型/维度自动推荐最佳图表
            4. 顶刊图表选取趋势分析
            第五章、统计信息的可视化表达与标注规范:精确数据尽在图中
            1. 图表中的统计与分析
            (1)基本统计:均值、标准差、置信区间、t检验、方差分析
            (2)回归分析:如何展示线性与非线性关系
            (3)p值与信号:如何标注统计显著性
            (4)RMSE与R²:图中显示回归模型评估指标RMSE、R2等
            (5)注释与细节:如何通过注释和细节增强图表的可解释性
            第六章、地理空间数据的可视化与GIS集成:地理数据鲜活地图
            1. 地理信息系统(GIS)与地理空间分布绘图
            (1)GIS简介:地理空间数据与GIS工具的应用
            (2)空间分布图绘制:地图可视化,热力图与点图
            (3)地理数据处理与可视化:如何处理地理坐标与绘图
            (4)高分辨率地图导出 + 政治边界合规提醒
            (5)融合AI实践应用:地理数据的实际案例分析
            第七章、动态与交互式可视化进阶:图形动态活灵活现
            1. GIF动图的绘制
            2. 审稿意见的常见问题及处理
            (1)动图制作原理:如何通过GIF展示数据变化
            (2)R与其他工具的动图生成:gganimate、plotly等
            (3)动图的应用场景与注意事项
            第八章、多图合成与出版级排版艺术:高效布局子刊密码
            1. 多图合成与高级排版
            (1)组图系统:如何在一张页面中合理组合多个图表
            (2)高级排版技巧:排版美学与信息传达的平衡
            (3)制作长文图表:如何制作长条形图、时间轴等特殊排版
            (4)实践应用:结合案例进行多图合成与排版练习
            第九章、技术路线图与概念图设计流程:概念生动逻辑清晰
            1. 技术路线图绘制
            (1)技术路线图的概念与应用:科研工作流程与技术路线
            (2)图表设计原则:如何通过图表表达技术流程与进展
            (3)实践应用:技术路线图绘制的具体案例
            2. 概念图绘制
            (1)AI绘图:如何使用AI绘制概念图
            (2)神经网络图:如何使用AI辅助绘图,制作神经网络与机器学习流程图
            (3)图形摘要的绘制:如何通过简洁明了的图形总结研究核心
            第十章、顶刊图表合规与交流讨论
            1. Nature/Science/Cell图表技术规范
            2. 导出标准格式
            3. 学术伦理红线
            (1)禁止拼接、重复使用、过度平滑(如Western Blot)
            (2)图像原始数据保存要求(FAIR原则)
            4. Caption与元数据撰写
            (1)如何写Figure Legend让审稿人一眼看懂
            (2)补充材料中交互图的说明规范
            5. 如何应对“图像问题”审稿意见交流。
            注:请提前自备电脑及安装所需软件。

            课程三

            培训时间:5月16日-17日
            学习方式:直播课程+助学群长期辅助指导+永久回放特权

            已关注

            关注

            重播 分享

            课程内容:(上下滑动查看更多)

            第一天:Claude Code科研深度使用——从数据到论文初稿

            产出:完整Claude Code项目环境– 数据已下载、清洗、分析

            模块一、Claude Code科研环境搭建

            1、Claude Code安装验证与模型选型(Opus/Sonnet/Haiku的成本与能力权衡)

            产出:可用的Claude Code环境

            2、CLAUDE.md:用一个配置文件教AI理解你的项目背景和规范

            产出:项目专属CLAUDE.md

            3、Memory系统:跨对话保持研究上下文(方向、数据、发现)

            产出:Memory配置

            4、实操:为自己的科研课题创建Claude Code项目结构

            产出:完整项目骨架

            案例实践:对比有/无CLAUDE.md时的回答质量——从”通用聊天”变成”懂你课题的助手”

            模块二、数据获取与自动化分析

            1、用Claude Code生成数据下载脚本(API/FTP/Web多种方式)

            产出:下载脚本

            2、数据清洗:缺失值、异常值、格式转换(NetCDF/HDF5/CSV/Excel)

            产出:清洗脚本

            3、自然语言→分析脚本:描述研究假设,Claude Code自动设计分析方案

            产出:200+行Python脚本

            4、统计检验:Bootstrap CI、Cohen’s d效应量、多重比较校正

            产出:统计结果JSON

            案例实践:一句话需求→自动生成完整脚本→跑通→输出结果

            模块三、科研绘图

            1、投稿级图表标准(字体、DPI、配色、error bars)

            产出:matplotlib模板

            2、常见图表类型实操:scatter、heatmap、bar+CI、时间序列

            产出:3-4张图

            3、多panel组合图:gridspec布局与统一配色

            产出:组合figure

            模块四、论文初稿自动生成

            1、论文结构设计:Title → Abstract → Intro → Results → Discussion → Methods

            产出:论文大纲

            2、Results:Claude Code读取JSON结果,生成带精确数字的段落

            产出:Results初稿

            3、Discussion:机制解释、文献对比、局限性

            产出:Discussion初稿

            4、Introduction:背景、知识空白、本文贡献

            产出:完整初稿v1

            关键技巧:如何让AI引用真实数字而非编造;如何用Memory防止长文写作中上下文丢失

            模块五、AI伦理与期刊政策

            1、主流期刊的AI使用政策(Nature/Science/Elsevier/ACS/AGU最新规定)

            2、AI辅助写作的披露规范:哪些必须声明、怎么声明

            3、数据隐私与保密:什么数据不能上传到云端API

            4、可复现性:Prompt日志、环境版本

            第二天:Codex交叉审稿 + 迭代改进 + 投稿准备

            产出:论文经过3轮交叉审稿,含完整改进记录-投稿级图表-论文DOCX + Cover Lette-学员自己课题的初步成果

            模块六、Codex首次审稿

            1、Codex CLI配置与使用方式(consult模式发送审稿请求)

            产出:可用的Codex环境

            2、把论文初稿发给Codex:要求打分、列弱点、找overclaim

            产出:首次审稿报告(预计4-6/10)

            3、解读审稿意见:overclaim、missing citations、statistical gaps

            产出:问题清单

            关键时刻:学员亲眼看到论文被打低分——”AI审稿比真人审稿更直接”

            模块七、双AI迭代改进

            1、Round1:修复措辞(confirms→supports, rules out→argues against)

            Codex审查:重新打分

            预期变化:+1-2分

            2、Round2:补引用、加统计检验、完善limitations

            Codex审查:再次审稿

            预期变化:+1分

            3、Round3:针对性修复剩余弱点

            Codex审查:终审

            预期变化:达到可投级

            核心重点:

            -科研措辞分寸:从”proves”到”is consistent with”

            – 引文补充:用Claude Code的WebSearch查找缺失引用

            – 每轮改进的对照记录

            备注:课程案例经过12轮才从4/10到8/10。课堂3轮是精华流程展示,学员课后可继续迭代。

            模块八、Claim校准——让两个AI交叉质询

            1、Claude和Codex分别评估核心结论的可信度,对比分歧

            产出:双方评分对比

            2、根据交叉质询结果调整论文claim强度

            产出:校准后的措辞

            模块九、审图 + 投稿文件生成

            1、Codex审图:标签、单位、配色、可读性

            产出:审图报告

            2、修图:去夸张标题、加error bars、colorblind-safe配色

            产出:终版图表

            3、Claude Code生成DOCX(嵌入图表)

            产出:论文DOCX

            4、引用格式化(Nature-style/APA/国标,按目标期刊选择)

            产出:引用列表

            5、Cover Letter自动生成

            产出:cover_letter.md

            模块十、学员实操 + 进阶路径

            1、学员用自己的数据/课题跑一遍核心流程(分析→初稿→Codex审稿)

            时间:45min

            2、共性问题集中讲解 + 讲师答疑

            时间:30min

            3、进阶路径概览:远程计算(AWS/阿里云)、自定义SKILL、MCP扩展、引文管理器对接

            时间:15min

            注:请提前自备电脑及安装所需软件。

            课程四

            培训时间:5月16日-17日、23日-24日
            学习方式:直播课程+助学群长期辅助指导+永久回放特权

            已关注

            关注

            重播 分享

            课程内容:(上下滑动查看更多)

            📢 【全栈技能,层层递进】

            从Python高阶编程(函数式、OOP、性能优化)出发,掌握XGBoost、LightGBM等经典机器学习工具,深入CNN、Transformer、扩散模型等前沿架构;同时以科学问题为牵引,强化SHAP可解释性分析、因果推断与不确定性量化,确保AI模型的物理一致性与科学严谨性。

            【革命性效率工具:氛围编程与上下文工程】

            告别繁琐的重复编码。课程深度教授Vibe Coding(氛围编程)——通过自然语言与AI协同编程,实现”零门槛”快速原型开发;掌握上下文工程与RAG技术,让大模型精准理解您的领域数据,自动生成可执行的分析代码、SQL查询与科研图表,将数据分析效率提升十倍。

            【科研自动化:从Chat到Agent的跃迁】

            学习构建OpenClaw智能体工作流,让AI自主完成数据清洗、多维度归因分析、假设检验与报告生成。通过MCP架构连接您的本地数据库与计算环境,实现”一句话需求→自动化分析→交付洞察”的端到端科研流水线,彻底解放您的生产力。

            【差异化优势】

            实战导向:9大案例模块覆盖图像光谱分析、时空序列预测、科学归因、论文Idea探索等真实场景

            人机协同:不仅教算法原理,更教”如何指挥AI做科研”——从提示词设计、代码审查到多Agent协作

            前沿融合:传统统计思想 × 现代深度学习 × 大模型自动化三重视角,打通从算法理解到科研落地的最后一公里

            本课程将为您提供兼具学术严谨性、工程实用性、技术前瞻性的学习平台。让AI成为您科研团队中最得力的智能助手,加速从数据洞察到科学发现的全过程。

            课程内容:
            专题一、Python基础
            Python核心基础速通
            1.Anaconda/UV环境管理
            2.Jupyter Notebook vs VS Code vs其它GUI对比
            3.虚拟环境创建与包管理(pip vs conda)
            4.Python基础数据结构:列表,字典与元组
            5.OOP编程基础:类与实例、属性与方法,继承、多态与抽象基类,魔术方法
            6.Python容器进阶:列表推导式与生成器表达式, 字典推导式与集合操作, 元组解包,深拷贝vs浅拷贝,
            7.函数式编程与速度优化:Lambda表达式与高阶函数,装饰器原理与应用,迭代器
            案例分析与实践(一)
            专题二、机器学习核心算法
            流行的机器学习工具箱
            1.类型识别:定性,定序,定距以及定比数据;外生与内生变量
            2.异常值:Z-Core,IQR
            3.缺失值:删除,填充,模型预测,KNN
            4.数据不平衡的处理:过采样,欠采样与混合策略
            5.分类:二分类与多分类,分类任务性能指标,召回率,AIC
            6.回归:分类与回归的区别,损失函数,正则化技术
            7.决策树:分类回归树,分裂策略,正则化剪枝(参数调优)
            8.随机森林:装袋树,特征随机性,袋外估计,特征重要性度量
            9.梯度提升树:XGBoost、LightGBM、CatBoost,梯度提升树的调优策略
            10.支持向量机(SVM):理论基础,最大间隔分类器,对偶问题,软间隔与硬间隔
            11.支持向量机:核函数及其本质,常用核函数,支持向量回归,
            12.支持向量机:超参数的选择与调优,样本量限制参数
            13.堆叠集成(Stacking)与超参数调优
            案例分析与实践(二)
            专题三、提示词与上下文工程
            让大语言模型为你做数据分析
            1.大模型推理机制深度解析:Tokenization、上下文窗口、影响模型表现的参数
            2.提示词工程的核心:Prompt、Completion、System Message三元组架构
            3.常见大语言模型的性能差异与适配策略:语言模型、多模态模型
            4.数据上下文的”三次表达”法则:元数据、样本与关系
            5.数据分析角色的精准定义:角色光谱、约束输入与输出格式限制
            6.提示词工程的示例策略
            7.大语言模型的本地化选择:Ollama,vllm,sglang等
            8.表格数据的上下文压缩:分层抽样上下文,自动数据画像的提示词
            9.上下文分块与检索增强生成技术:让数据分析更加专业
            10.数据分析提示词设计:描述性统计的提示词,假设检验上下文工程,时间序列分析上下文工程 等等
            11.数据建模的代码生成与调试
            案例分析与实践(三)
            专题四、可解释人工智能(XAI)
            让模型“说出理由”:科学归因与机制推断
            1.全局变量重要性:置换重要性,基尼重要性,分裂增益重要性
            2.部分依赖图(PDP)与个体条件期望
            3.局部代理模型解释框架:代理模型,LIME
            4.SHAP理论基础:博弈论基础与夏普利值,SHAP解释体系的构建
            5.高效SHAP的计算:基于树模型的计算方法(TreeSHAP)与模型无关算法(KernelSHAP)
            6.特征相关的处理:Conditional SHAP与因果SHAP
            7.交互效应:H 统计量与多维可视化
            案例分析与实践(四)
            专题五、Pytorch基础
            1. Tensor基础与创建:张量(Tensor) vs 数组(Array)vs矩阵(Matrix)概念辨析及转换
            2.Pytorh数据类型与张量创建
            3.张量的基本操作与设备指定
            4.张量索引与切片的高级技巧
            5.张量的维度与操作
            6.计算图与梯度基础
            7.自动微分与反向传播
            8.常见Pytorch错误诊断
            9. nn.Module基类与模型构建
            10.常见神经网络层:线性层、池化层、卷积层与正则化层
            11.激活函数选择
            12.损失函数与优化器
            13.模型保存与加载
            案例分析与实践(五)
            专题六、Vibe Coding
            氛围编程:不用写代码的编程技术
            1. 什么是氛围编程:定义,适用范围,人机分工的模式
            2.工具链与大语言模型配置与选择策略
            3.代码库的上下文管理
            4.编程需求的结构化模板
            5.代码质量控制:幻觉检测,人机Code Review
            6.代码调试与修复策略
            7.安全策略检查清单
            案例分析与实践(六)
            专题七、深度学习:感知与表征
            处理图像与光谱
            1.多层感知机(MLP):层间连接,深度与宽度权衡,图像数据预处理
            2.激活函数深度比较与选择:Sigmoid,Tanh,Relu,ELU,GELU等
            3.正则化与优化策略:Dropout机制,批归一化,权重矩阵约束
            4.自编码器(AE):无监督降维与特征提取,编码-解码架构,瓶颈层设计
            5.变分自编码器(VAE):生成模型,变分下界,重参数化,图像的VAE应用
            6.卷积神经网络基础:局部感知,卷积的本质,权值共享机制
            7.卷积层设计要点:感受野的计算,空洞卷积,分组卷积
            8.CNN架构,LeNet,AlexNet,残差学习,ResNet
            9.U-Net 架构:上采样,下采样与跳跃连接,U-Net的训练技术
            10.U-Net扩展:多输出,物理约束,半监督学习与半监督U-Net
            案例分析与实践(七)
            专题八、深度学习进阶:序列、生成与注意力
            建模动态演化、生成模拟与长程依赖
            1.RNN:时序展开,随时间反向传播,梯度消失,长期依赖,双向RNN
            2.门控循环单元:细胞状态,遗忘门,输入门,输出门
            3.LSTM与GRU:记忆机制对比与选择策略
            4.注意力机制:自注意力,交叉注意力,全局与局部注意力
            5.Transformer:多头自注意力,残差连接与层归一化,位置编码,掩码自注意力与因果建模 
            6.Swin Transformer:层次视觉与移位窗口
            7.生成对抗网络(GAN):极大极小博弈,生成器,判别器与价值函数
            8. ConvLSTM、PredRNN ,SWIN TRANSFORMER等时空预测架构
            9.扩散模型讲解
            案例分析与实践(八)
            专题九、Agents&OpenClaw
            从IDEA探索,数据分析与报告自动化生成
            1. 从Chat到Agent:数据分析范式的跃迁:自主规划,工具调用与记忆
            2. OpenClaw架构及其功能解析
            3. OpenClaw环境配置及其安全设置
            4. 自然语言需求解析与任务拆解
            5. OpenClaw脏数据自检与多维度分析
            6. 人机回环(Human-in-the-loop)设置
            7. 多Agent协作:串行流水线与并行探索
            8.论文阅读与主意的探索
            9. 记忆共享与知识沉淀:智能助手的养成策略
            10.辅助报告自动化
            案例分析与实践(九)
            专题十、自进化的Agent

            Hermes Agent从私有化部署到智能体自我进化:本地化深度研究助手的构建

            1.从静态配置到动态进化:AI Agent能力获取范式的跃迁

            2.Hermes Agent运行时架构解析

            3.私有化部署实践:本地模型(Qwen3.5 27B)接入与vLLM优化配置

            4.技能蒸馏与自动化编程:从任务执行到Python Skills的生成与优化

            5.多后端执行环境配置:Docker、SSH、Singularity的场景化选择

            6.子Agent并行策略:任务拆解、隔离执行与结果聚合机制

            7.与OpenClaw的协同与迁移:记忆导入、配置互通与分层架构设计

            8.知识沉淀的自动化策略:Skills版本控制、冲突解决与长期进化路径

            9.本地化科研助手的典型应用场景

            案例分析与实践(十)

            注:请提前自备电脑及安装所需软件。

            课程五

            培训时间:5月23日-24日
            学习方式:直播课程+助学群长期辅助指导+永久回放特权

            已关注

            关注

            重播 分享

            课程内容:(上下滑动查看更多)

            🎁 学员课前准备

            为确保每位学员都能顺利上手实操,课程开始前一周将讲解详细的环境配置教程,并提供一份配置说明文档,助你轻松搞定复杂环境搭建!

            1.安装好Python、Git、VS Code

            2.准备至少1-2个可调用API的模型账号

            3.准备安装或已安装OpenClaw、Hermes、Cursor、Claude Code、Codex

            4.自带一个科研题目、一份数据样例或2-3篇代表性论文,便于课堂演练

            5.若计划实操本地部署,建议电脑具备较大内存或可连接GPU服务器


            🎯课程结束后建议交付成果

            1.一个已完成基础配置的OpenClaw科研环境

            2.一份《科研任务-模型-Token选型卡》

            3.一份《本地大模型部署与接入说明卡》

            4.一份《科研Agent编程工具对比表》

            5.两个科研Skill初稿

            6.一份《科研MCP接入蓝图》

            7.一份《科研云端数据管理与下载流程模板》

            8.一套个人多模型论文写作自动化流程图

            9.一份《个人OpenClaw科研助手搭建方案》

            10.一份《NotebookLM、Claude Code、Obsidian的知识工作流》 


            ⚡ 培训目标

            1. 独立完成 OpenClaw、Hermes的安装、配置、模型接入与基础使用。相对于Openclaw,Hermes具有自我成长的功能。

            2. 理解 Token、上下文窗口、调用成本与模型能力边界

            3. 学会比较并选择不同大模型,尤其是 DeepSeek 、Qwen、Chatgpt、Opus、Gemma4、Kimi、GLM、Minimax

            4. 掌握开源大模型本地部署的基本路径,如Ollama的适用场景,Ollama本地部署Gemma4和Qwen3.5后运行Claude,保存本地数据隐私性。Openclaw、Codex、Claude Code运行本地大模型

            5. 学会建立科研数据的云端存储、快速下载与版本化管理流程

            6. 掌握Vibe Coding在科研编程中的正确工作方法

            7. 学会用Agent完成科研数据可视化与结果解释

            8. 学会使用Cursor、VS Code、Codex、Claude Code 完成科研代码任务

            9. 学会编写科研SKILL,理解MCP的扩展价值

            10. 设计一套属于自己的多模型论文写作自动化工作流

            11.掌握一套从NotebookLM、Claude Code、Obsidian知识管理自动化工作流(无论是老师还是学生都可以复现MIT研究生48小时掌握一门课)

            12.通过Hermes Agent生成Karpathy的LLM-Wiki的Obsidian知识库


            📢重点专题说明

            1.如何讲清楚Token选择:

               1)Token是模型处理文本的基本计量单位,不等于简单字数

               2)选模型不仅看“聪不聪明”,还要看上下文、速度、成本和稳定性

               3)真正高效的科研工作流通常是多模型分工,而不是只用一个最贵模型

               4)要教会学员把高质量模型用在关键步骤,把高性价比模型用在重复步骤

            2.中国两个大模型与美国三个大模型对比:

               1)DeepSeek适合推理链、代码、数学与结构化任务

               2)Qwen适合中文理解、通用办公、生态兼容和平台接入

               3)Gemini的Nano Banana适合绘图

               4)Opus搭配Claude Code适合写代码和论文

               5)Chatgpt5.4搭配Codex适合执行任务

               6)教学中应强调“任务分工”而不是简单比较谁更强

            3.如何“养龙虾进行科研”:

               1)长期培养一个懂你课题和工作习惯的科研助手

               2)用规则、Skill、MCP、知识材料和模板持续迭代Agent

               3)把每次科研实践沉淀成可复用的流程资产

            4.本地部署与云端协同:

               1)敏感数据、私有材料和高频重复任务优先考虑本地模型

               2)高质量推理、长文写作和复杂审阅可调用云端强模型

               3)最实用的方案往往不是全本地或全云端,而是“本地保密+云端增强”的混合策略


                📋 课程内容简要

                注:请提前自备电脑及安装所需软件。

                课程六

                培训时间:5月30日-31日
                学习方式:直播课程+助学群长期辅助指导+永久回放特权

                已关注

                关注

                重播 分享

                课程内容:(上下滑动查看更多)

                📢 课程核心差异化

                1.真实数据驱动:使用Cochrane/JAMA已发表RCT的真实数据,非模拟数据,可溯源至原始文献。

                2.一条主线贯穿:PICOS设计→PubMed检索→AI筛选→效应量计算→DL随机效应模型→森林图→漏斗图→亚组分析→敏感性分析→Results段落,两天做完完整Meta-Analysis。

                3.AI深度提效Hermes Agent自动生成检索式、批量筛选文献、运行统计脚本、生成投稿级图表、撰写Results段落——亲眼见证AI把传统2周的工作压缩到2小时。

                4.代码经双轮审阅:所有脚本经两轮代码审阅(Codex Review),Egger检验修正为加权回归(WLS)、SMD方差统一为含J²的Hedges标准公式、PRISMA计数改为动态计算,统计公式逐项验证。

                5.带走你的专属科研智能体:你将带走一个配置好的Hermes Agent和Meta-Analysis统计Skill,利用其自进化能力,未来可一键复用到你的任何课题中。

                📢 课程完整产出

                📢 【课程产出图表示例】(以下均为课程真实数据生成)

                📅 培训时间

                • 直播时间5月30日-31日(腾讯会议直播)


                🎯 培训方式

                • 在线直播+助学群辅助+导师面对面实践工作交流


                📋 课程内容简要

                第一天:Hermes部署 + AI辅助文献检索与筛选

                产出:Hermes科研环境 + 检索脚本 + 筛选结果 + 数据提取表

                模块一、Hermes Agent部署与科研配置

                1、Hermes安装→模型接入(DeepSeek/OpenAI/Anthropic)→验证运行

                2、模型选择策略:Opus写作/Sonnet编码/Haiku批量筛选/Ollama本地

                3、配置USER.md:让Hermes从通用助手变成”你的课题组成员”

                4、备用方案:Claude Code替代+预录数据集兜底

                模块二、PICOS设计与检索策略

                1、AI辅助检索策略设计:Hermes生成PubMed检索式+MeSH词扩展

                2、检索式逻辑完整性检查

                3、其他学科案例展示(大气科学、心理学、教育学)

                模块三、AI自动化文献检索与初筛

                1、PubMed Entrez API批量检索(Biopython) 产出:检索脚本

                2、Semantic Scholar补充检索 + 去重合并

                3、AI辅助标题摘要筛选(逐篇判断+排除理由) 产出:筛选CSV

                4、PRISMA 2020流程图生成(matplotlib动态计算)

                模块四、数据提取与效应量计算

                1、数据提取表设计+AI辅助PDF数据提取

                2、效应量计算:均数差(MD)+标准化均数差(Hedges’g,含J校正)

                3、使用课程真实数据(9项RCT/12臂,含Church 2010三臂试验说明)

                第二天:统计分析 + Skill封装 + 个人落地

                产出:4张投稿级图表 + 统计Skill + Results段落 + 个人方案

                模块五、Meta-Analysis统计分析

                1、DerSimonian-Laird随机效应模型(手动实现5步算法,纯numpy)

                2、异质性检验:Q统计量、I²、τ²产出:统计报告

                3、森林图:权重方块+合并钻石+数值标注(纯matplotlib)

                4、亚组分析:按运动类型分组+组间异质性Q_between

                5、漏斗图+Egger加权回归检验(正确WLS实现)

                6、Leave-one-out敏感性分析  产出:4张投稿级图表

                模块六、Skill封装与Hermes进化

                1、将全套统计流程封装为Hermes Skill(输入CSV一键出图出报告)

                2、Hermes自动优化Skill+团队共享方式

                3、MCP扩展简介:Zotero文献管理、批量读PDF

                模块七、AI辅助结果解读与写作

                1、Hermes自动解读统计输出→生成Results段落初稿

                2、标准学术句式模板(效应量+CI+P值+异质性描述)

                3、AI写作边界:擅长格式化结果描述,需人工核验数值和引用

                模块八、综合演练与个人落地

                1、两天流程回顾:PICOS→检索→筛选→提取→统计→解读

                2、学员自选题实操(60分钟):用自己的选题走全流程

                3、Hermes长期维护方案:持续进化+Skill积累

                4、Q&A+课后资源发放。

                注:请提前自备电脑及安装所需软件。

                📞 报名咨询

                陈召:18510371278(微电)
                QQ咨询:2671309781
                AI多领域融合课程、论文写作、科研绘图类
                5月30日-31日、
                6月6日-7日
                人工智能赋能的科研优化前沿技术高级研修班
                5月23日-24日

                OpenClaw+Vibe Coding核心实战玩法,手把手教你本地部署与云端协同,实现知识、论文自动化工作流培训班

                4月24日-27日

                AI赋能R-Meta分析核心技术:从热点挖掘到高级模型、助力高效科研与论文发表”培训班

                5月8日-9日、

                15日-16日

                第五期:智能遥感新质生产力暨DeepSeek、ChatGPT、Python等驱动的空天地数据识别与计算及15个行业标杆案例实践培训班
                4月10日-11日、17日-18日

                高水平学术论文写作的“破局”之道暨AI人机协同从前沿选题挖掘、智能写作工程、顶刊图表可视化、到精准选刊投稿与审稿博弈策略的一站式实践高级培训班

                5月5日-8日
                2026最新AI驱动科研全链路实战营:贯通LLM与Notebooklm应用、数据分析、自动化编程、文献及知识管理、科研写作与绘图、构建个人AI助手与科研工自动化作流培训班
                5月16日-17日
                基于claude code、codex多AI协同论文写作实战营:跑通数据分析→论文初稿→AI交叉审稿全流程
                农林生态、水文、气象、遥感
                4月22日-24日、29日-30日
                面向SCI论文:AI+PLUS-InVEST多情景耦合模拟、生态系统服务评估、土地利用优化、科研论文全链条实战高级研修班
                直播与现场同步
                4月28日-30日
                三维地质建模全链路实践技术——从数据清洗预处理到复杂构造建模、矿体圈定与储量估算培训班【成都站】
                5月9日-10日、
                16日
                最新合成孔径雷达干涉测量InSAR数据处理、地形三维重建、形变信息提取、监测等实践技术应用高级培训班
                5月13日-14日、18日、20日-21日
                融合DeepSeek、GIS 与 Python 机器学习的全流程地质灾害风险评估、易发性分析、信息化建库、灾后重建及SCI论文成果撰写高级培训班
                直播与现场同步
                5月21日-24日
                北斗高精度数据解算实战:破解城市峡谷/长基线/无网区难题,从毫米级定位到自动化交付的全流程攻坚进阶培训班【西安站】
                5月22日-23日、29日-30日
                最新AI+Python驱动的高光谱遥感全链路解析与典型案例实践高级培训班
                5月16日-17日、23日-24日
                AI赋能下的流域径流模拟、气候变化影响评估及水文水资源管理实践技术培训班
                5月23日-24日、30日-31日
                从机理到实践告别“黑箱”模拟:OpenGeoSys(OGS6)多物理场THMC 全耦合建模与Python自动化分析高级实战营

                统计、语言、人工智能类
                4月18日-19日
                25日-26日
                AI与Python双驱动计量经济学多源数据处理、机器学习预测及复杂因果识别全流程实战班
                5月16日-17日、23日-24日
                最新AI-Python机器学习、深度学习核心技术与前沿应用及OpenClaw、Hermes自动化编程高级研修班

                声明: 本号旨在传播、传递、交流,对相关文章内容观点保持中立态度。涉及内容如有侵权或其他问题,请与本号联系,第一时间做出撤回。

                END

                Ai尚研修丨专注科研领域

                技术推广,人才招聘推荐,科研活动服务

                科研技术云导师,Easy  Scientific  Research