ChatGPT、DeepSeek 这类通用 AI 什么都懂一点,但不了解你的行业、你的公司文件、你的专业术语。
让它真正"懂你",需要用自己的数据去训练一个专属版本。
这件事过去要么花钱租云服务器,要么自己写大量代码。
现在 Unsloth Studio 把它变成了在浏览器里上传文件、点开始的事情。
Unsloth 团队刚发布了 Unsloth Studio 公测版,完全运行在本地电脑上,Windows、Mac、Linux 都支持,免费开源,数据不上传任何服务器。
能干什么
本地跑模型聊天。 把 AI 模型下载到自己电脑,直接在浏览器里对话。
支持上传图片、文档、音频、代码文件,AI 可以联网搜索,也可以执行代码验证结果。所有数据只在本地,完全离线可用。
用自己的文件训练专属模型。 把 PDF、Word、CSV、JSON 文件丢进去,系统自动把这些文档转成训练数据,然后开始训练。
支持 500 多个主流模型,包括文本、图像、语音合成、向量嵌入等类型。训练只支持 NVIDIA 显卡(RTX 30 系及以上),官方数据是比同类工具快 2 倍、显存减少 70%。
对比两个模型的输出。 加载两个模型并排运行,同一个问题分别问,适合对比训练前后的效果差异。
导出模型接其他工具。 训练好的模型可以导出为 GGUF 或 safetensor 格式,直接接入 Ollama、LM Studio、vLLM 使用。
训练历史会保存,随时可以回去重新导出。
怎么安装
四行命令:
pip install --upgrade pip && pip install uvuv pip install unsloth --torch-backend=autounsloth studio setupunsloth studio -H 0.0.0.0 -p 8888第三行会自动安装 Node.js、编译底层推理组件 llama.cpp,第一次需要等 5 到 10 分钟,正常现象,别中断。
完成后浏览器打开 http://localhost:8888,设置密码就能进入。
各平台支持情况
没有本地显卡,也可以用官方提供的 Google Colab 免费笔记本,点"Run all"自动安装,支持最大 220 亿参数的模型,但 llama.cpp 编译要等 30 分钟以上。
费用和数据
完全免费,代码开源在 GitHub(github.com/unslothai/unsloth)。
核心库是 Apache 2.0 协议,Studio 界面部分是 AGPL-3.0。
官方声明不收集使用数据,只收集 GPU 型号等硬件兼容信息。
更多见:https://unsloth.ai/docs/new/studio#run-models-locally
夜雨聆风