OpenClaw手机版发布!安卓7.0+就能本地跑AI,旧手机也能复活
重大更新 :OpenClaw 手机版正式发布!只要你的手机是安卓 7.0 以上系统,就能在本地运行 AI 大模型,吃灰的旧手机终于派上用场了!
你是不是也有这样的经历:换了新手机,旧手机就扔在抽屉里吃灰?卖了不值钱,放着占地方,扔了又可惜。
现在好了,OpenClaw 手机版来了——你的旧手机,可以复活变成一台本地 AI 终端了!
为什么要在手机上本地跑 AI?
所有数据都在你手机上,不用上传到云端,不用担心聊天记录被采集,敏感话题放心聊。
不用充值会员,不用按 token 收费,下载安装就能用,一次用到爽。
没有网也能用,地铁上、飞机上、户外没信号,AI 随时待命。
配置要求:真的很低
最低要求 :Android 7.0+,2GB 存储空间,就能跑 7B 量化模型
✅ 骁龙 660/麒麟 960 以上芯片就可以流畅运行
能做什么?
💬AI 聊天对话 —— 问问题、写文案、出方案,想聊就聊
✍️内容创作 —— 写公众号、写短视频脚本、写邮件,一键生成
🧠AI 思考助手 —— 帮你整理思路、拆解问题、分析逻辑
技术原理:高效推理引擎
OpenClaw 手机版基于移植优化,针对手机 ARM 芯片做了深度适配:
支持 GPU 加速(OpenCL),推理速度比纯 CPU 快 2-3 倍
量化模型支持:4-bit、8-bit 都能跑,体积小速度快
安装使用步骤
前往 OpenClaw 官方 GitHub 发布页下载最新版 APK:
https://github.com/openclaw-ai/openclaw-android/releases
下载完成后点击安装即可。如果提示”未知来源应用安装”,允许一下就行。
打开 App,进入模型市场,选择你喜欢的模型下载:
轻量推荐 :Qwen2-7B-Instruct-q4_0(约 4GB),速度快效果好
更小体积 :Qwen2-1.8B-Instruct-q4_0(约 1GB),小内存手机首选
追求效果 :Qwen2-14B-Instruct-q4_0(约 8GB),内存够就上
体验感受:旧手机真的能用吗?
手机型号
年份
芯片
内存
运行模型
体验
小米 6
2017
骁龙 835
6GB
7B q4
流畅,单轮回复 3-5 秒
华为 Mate 10 Pro
2017
麒麟 970
6GB
7B q4
可正常使用,稍慢一点
三星 S8
2017
骁龙 835
4GB
1.8B q4
流畅运行
OnePlus 5T
2017
骁龙 835
8GB
7B q4
流畅
结论 :2017 年的旗舰机,跑 7B 模型完全没问题,日常聊天够用了。年份更近的手机,体验只会更好。
场景推荐:旧手机复活之后能干嘛?
放在家里,当成永远在线的 AI 问答终端,全家都能用。
出国旅游,装个翻译模型,没有 SIM 卡也能翻译。
过滤不良内容,本地运行不用担心网络污染,学习好帮手。
项目开源
OpenClaw 手机版完全开源,代码托管在 GitHub:
https://github.com/openclaw-ai/openclaw-android
欢迎 Star,欢迎提交 Issue,欢迎贡献代码。
如果你遇到问题,或者有功能建议,也欢迎在 GitHub 提 Issue。
常见问题
Q:iOS 有吗? A:目前只有安卓版,iOS 版正在开发中,敬请期待。
Q:需要科学上网吗? A:不需要,APP 和模型都可以在国内下载。
Q:占多少存储空间? A:APP 本身约 30MB,模型根据大小不同 1GB-8GB 不等,现在手机存一个模型完全没问题。
Q:费电吗? A:推理的时候会耗电,待机很省电,当主力 AI 助手用一天一充没问题。
Q:支持哪些模型? A:支持所有 GGUF 格式的 llama 系模型,通义千问、LLaMA、Mistral、Gemini 都可以。
如果你觉得这个项目有意思,欢迎转发给身边有旧手机吃灰的朋友,让他们也复活一下旧手机!
写在最后
开源社区一直在推进 AI 本地化,从电脑到手机,现在终于让普通人的旧手机也能跑得起大模型了。
未来,AI 一定是分布式的、本地的、每个人都能触手可得的。你的旧手机,不该在抽屉里慢慢变老,它应该重新活一次,成为你的 AI 助手。