本地Ollama聊天App,手机也能跑70B模型
手机App直接连你电脑上的Ollama,本地大模型聊天界面就这么搞定了。
讲真,这思路简单到有点粗暴。Reddit上Ollama板块里,有老哥贴了个图,展示了一个聊天App的界面。说白了,这App就是个前端界面,但它不连云端,直接连你本地电脑上跑着的Ollama服务。你手机和电脑在同一个Wi-Fi下,或者通过一些内网穿透工具,就能用手机访问电脑的Ollama API了。
你想啊,平时用Ollama,要么在命令行里敲,要么用一些Web UI。现在手机能直接当遥控器,躺在床上就能跟电脑里几十个G的模型对话,这体验一下子就上来了。隐私?全在你本地硬盘里。费用?除了电费,一分钱不用花。
核心就一个:连上本地Ollama的API
这App的原理一点都不复杂。Ollama本身启动后,会在本地开一个HTTP API服务(默认是http://localhost:11434)。这个App要做的,就是把用户输入的文字,通过这个地址发给Ollama,再把Ollama返回的文本流显示出来。
关键配置:你需要知道运行Ollama的电脑的IP地址(比如192.168.1.100),然后在App的设置里把服务器地址填成 http://192.168.1.100:11434。确保电脑防火墙放行了11434端口。
划重点,这玩意儿对电脑硬件的要求,就是你跑Ollama本身的要求。你想用手机聊Llama 3.1 70B?行,只要你电脑的显卡(比如4090 24G)或者系统内存(比如64G以上)能跑得动这个模型的量化版(比如Q4_K_M)。手机这边,就是个显示和输入的终端,几乎不吃性能。
玩法可以很野:内网穿透,远程调用
如果只在家里用,那太局限了。懂的都懂,下一步肯定是内网穿透。用frp、ngrok或者ZeroTier这类工具,把你家里电脑的11434端口映射到公网。
安全警告:把Ollama API直接暴露到公网有风险!强烈建议至少设置API密钥(如果Ollama支持),或者通过反向代理(如Nginx)添加基础认证,否则你的模型可能被陌生人白嫖。
这么一来,你在公司、在咖啡馆,只要手机有网,就能连回家里的高性能主机,调用那上面跑着的各种大模型。相当于你有了一个完全私有的、功能强大的“Claude”或“ChatGPT”,而且数据不出家门。这比那些云服务省钱多了,尤其是跑70B、120B这种大参数模型,云API费用吓死人。
说白了,这个App本身的技术含量可能不高,但它指出了一个非常实在的方向:把本地大模型的服务能力,用最轻便的方式交付到日常使用的设备上。现在很多人在折腾怎么在手机上直接跑模型,但受限于手机算力和内存,效果好的模型很难跑起来。这种“手机做前端,电脑做算力”的分离架构,反而更现实、体验更好。
Reddit原帖里没给出这个App的具体下载链接或名字,可能只是个个人开发的概念演示。但思路已经摆在这儿了,估计很快就会有类似的开源项目出来。甚至你可以用Flutter、React Native自己撸一个,核心代码可能就几百行。
你觉得这种“手机端+本地主机算力”的模式,会是未来个人AI助理的主流形态吗?你会愿意让手机24小时连着家里的电脑,随时调用大模型吗?评论区聊聊。
来源: Reddit Ollama|原文: Chat app that uses your local Ollama LLM
夜雨聆风
