上周帮朋友出闲置电脑,一台四年的 MacBook Pro,划痕不少,电池健康度 82%,本来应该是人见人嫌的东西。
结果标价 6000,挂出去三小时,七八个人来问。
四个人开口第一句:"能跑本地大模型吗?"三个人问:"显存多大?能跑 27B 吗?"
朋友当时就傻了——他卖的是笔记本,可对方当推理服务器在买。
说实话,我听到这事的时候也愣了一秒。
大家都在买新机器,而有人却在扫旧货
AI 来了,我们第一反应是 GPU 会涨价、新硬件更抢手。
这没错。但还有一件事在并行发生:大量人在找便宜机器跑本地模型。
你本地跑个 QWEN的7B、9B 的模型试试,不一定非得上专业设备。二手机器够用,门槛还低很多。
• 数据不想传云端 • API 调用每次都要钱,本地跑免费 • 开发者图调试方便 • 预算有限但想先试水
一张 4090 现在一万五。一台配置合理的二手游戏本,七八千拿下,性能差不了太多。
原来是需求分散了,经济下行时期大家也不全往新硬件冲了。
矿卡回来了,不是挖矿,是跑推理
我去翻了几个二手平台,发现一个有意思的现象:
矿卡现在又开始活跃起来了。但驱动因素不是币价,还是有人在拿它跑本地推理。
同样的事情也发生在 Mac 上。M 芯片在跑模型上确实能打,有些老型号的 Mac 现在二手价格比当初还坚挺。
Ollama、LM Studio 点几下就能跑起来,门槛降了一大截。
光 Llama 3 的开源模型,一个月内在 Hugging Face 上的下载量涨了三倍。
我后来专门去二手平台搜了一下:M1 Mac mini 的价格,在过去三个月里涨了差不多 40%。有人在一个季度内把整个区域的货扫完了。
这些人不傻。他们知道自己在做什么。
说真的,我有点后悔卖掉那块 3060
三年前装机剩下的,当时觉得过时了就出了,卖了两千不到。
朋友说,同型号显卡现在的二手成交价,已经比当初高了不少。
我算了一下:那卡留到现在,光跑本地模型省下的 API 调用费,大概值好几千。
虽然有点事后诸葛亮。但我也想明白一件事:
不是"旧硬件升值了",而是:AI 在加速一切硬件的贬值,同时也在让"够用"变成一种新的值钱。
你的手机三年后肯定不值钱了。但如果它现在跑得动 7B 模型,它现在就是值钱的。
因为"能用"和"够用"是两件完全不同的事。
AI 让"能用"的门槛在降低,但让"够用"的标准在分化。
而这个分化里,藏着商机。
所以我现在会先翻抽屉
其实我之前发过一个帖子,有人问我:你觉得未来三年什么东西会涨价?
我没有说显卡,没有说算力,没有说英伟达。
我很可能会说:旧硬件。
因为算力这东西,越往后越不是稀缺资源。新硬件永远最贵,但新硬件也是最容易过时的。真正值钱的,是那些刚好够用、同时又还没被淘汰的设备。
这个判断现在正在被验证。
其实你不用相信我。
你今天回家,拉开抽屉,看看里面有没有一台吃灰的旧设备。
然后你去 Ollama 官网,用免费版跑一下它能带动多小的模型。
说不定,它比你想象中值钱多了。
夜雨聆风