乐于分享
好东西不私藏

OpenClaw手机版发布!安卓7.0+就能本地跑AI,旧手机也能复活

OpenClaw手机版发布!安卓7.0+就能本地跑AI,旧手机也能复活

重大更新:OpenClaw 手机版正式发布!只要你的手机是安卓 7.0 以上系统,就能在本地运行 AI 大模型,吃灰的旧手机终于派上用场了!
你是不是也有这样的经历:换了新手机,旧手机就扔在抽屉里吃灰?卖了不值钱,放着占地方,扔了又可惜。
现在好了,OpenClaw 手机版来了——你的旧手机,可以复活变成一台本地 AI 终端了!

为什么要在手机上本地跑 AI?

👍 优势一:隐私安全
所有数据都在你手机上,不用上传到云端,不用担心聊天记录被采集,敏感话题放心聊。
👍 优势二:完全免费
不用充值会员,不用按 token 收费,下载安装就能用,一次用到爽。
👍 优势三:随时随地用
没有网也能用,地铁上、飞机上、户外没信号,AI 随时待命。
👍 优势四:旧物利用
淘汰下来的安卓手机不用浪费,变废为宝,物尽其用。

配置要求:真的很低

最低要求:Android 7.0+,2GB 存储空间,就能跑 7B 量化模型
也就是说:
✅ 2016 年以后出的安卓手机基本都能用
✅ 骁龙 660/麒麟 960 以上芯片就可以流畅运行
✅ 4GB 内存就能跑,6GB 体验更好
✅ 不 Root,不用解锁,安装 APK 就能用
你的旧手机,满足吗?大概率满足!

能做什么?

OpenClaw 手机版支持:
💬AI 聊天对话—— 问问题、写文案、出方案,想聊就聊
✍️内容创作—— 写公众号、写短视频脚本、写邮件,一键生成
🧠AI 思考助手—— 帮你整理思路、拆解问题、分析逻辑
📝学习辅助—— 翻译、解题、知识点梳理,随身家教
🔒完全离线—— 模型下载后,断网也能正常使用

技术原理:高效推理引擎

OpenClaw 手机版基于移植优化,针对手机 ARM 芯片做了深度适配:
支持 GPU 加速(OpenCL),推理速度比纯 CPU 快 2-3 倍
动态内存管理,避免闪退,低内存手机也能跑
量化模型支持:4-bit、8-bit 都能跑,体积小速度快
支持多种模型格式:GGUF 通用格式

安装使用步骤

1. 下载安装 APK
前往 OpenClaw 官方 GitHub 发布页下载最新版 APK:
https://github.com/openclaw-ai/openclaw-android/releases
下载完成后点击安装即可。如果提示”未知来源应用安装”,允许一下就行。
2. 下载 AI 模型
打开 App,进入模型市场,选择你喜欢的模型下载:
轻量推荐:Qwen2-7B-Instruct-q4_0(约 4GB),速度快效果好
更小体积:Qwen2-1.8B-Instruct-q4_0(约 1GB),小内存手机首选
追求效果:Qwen2-14B-Instruct-q4_0(约 8GB),内存够就上
3. 开始聊天
模型下载完,点进去就能直接聊了。就是这么简单!

体验感受:旧手机真的能用吗?

我们找了几部旧手机实际测试:

手机型号

年份

芯片

内存

运行模型

体验

小米 6

2017

骁龙 835

6GB

7B q4

流畅,单轮回复 3-5 秒

华为 Mate 10 Pro

2017

麒麟 970

6GB

7B q4

可正常使用,稍慢一点

三星 S8

2017

骁龙 835

4GB

1.8B q4

流畅运行

OnePlus 5T

2017

骁龙 835

8GB

7B q4

流畅

结论:2017 年的旗舰机,跑 7B 模型完全没问题,日常聊天够用了。年份更近的手机,体验只会更好。

场景推荐:旧手机复活之后能干嘛?

1. 随身 AI 助手
放口袋里,出门随时用,不用担心隐私,不用怕没网。
2. 家庭智能中控
放在家里,当成永远在线的 AI 问答终端,全家都能用。
3. 离线翻译机
出国旅游,装个翻译模型,没有 SIM 卡也能翻译。
4. 给孩子用
过滤不良内容,本地运行不用担心网络污染,学习好帮手。

项目开源

OpenClaw 手机版完全开源,代码托管在 GitHub:
https://github.com/openclaw-ai/openclaw-android
欢迎 Star,欢迎提交 Issue,欢迎贡献代码。
如果你遇到问题,或者有功能建议,也欢迎在 GitHub 提 Issue。

常见问题

Q:iOS 有吗?A:目前只有安卓版,iOS 版正在开发中,敬请期待。
Q:需要科学上网吗?A:不需要,APP 和模型都可以在国内下载。
Q:占多少存储空间?A:APP 本身约 30MB,模型根据大小不同 1GB-8GB 不等,现在手机存一个模型完全没问题。
Q:费电吗?A:推理的时候会耗电,待机很省电,当主力 AI 助手用一天一充没问题。
Q:支持哪些模型?A:支持所有 GGUF 格式的 llama 系模型,通义千问、LLaMA、Mistral、Gemini 都可以。

如果你觉得这个项目有意思,欢迎转发给身边有旧手机吃灰的朋友,让他们也复活一下旧手机!

写在最后

开源社区一直在推进 AI 本地化,从电脑到手机,现在终于让普通人的旧手机也能跑得起大模型了。
未来,AI 一定是分布式的、本地的、每个人都能触手可得的。你的旧手机,不该在抽屉里慢慢变老,它应该重新活一次,成为你的 AI 助手。
赶快找出来你的旧手机,试试吧!

欢迎关注我们,获取 OpenClaw 最新更新