乐于分享
好东西不私藏

AI按字数收费的真相,一个Token到底是什么

AI按字数收费的真相,一个Token到底是什么

     账单上不写问答次数,写的是token。很多人充完值才意识到自己根本不知道钱花在哪里。搞懂token这件事,不是为了省钱,是为了真正理解你在跟一台什么样的机器打交道。   

     你给OpenAI账户充值之后,账单上不会写你问了多少次,也不会写你打了多少个字。它写的是token。第一次看到这个词的人大多会愣一下,然后大概率去搜一下,然后看完之后还是有点模糊。这篇文章想把这件事讲清楚,不绕弯子。   

     Token不是字,是模型眼里的「最小语义块」   

     模型不像人一样直接阅读文字。它在处理你输入的内容之前,会先把整段文本拆解成一小块一小块的单位,这个单位就叫token。拆完之后,这些token会被转成数字编码,喂给神经网络,模型才开始真正「理解」你说的是什么。所以token是模型的感知单位,不是人类意义上的字或词。   

     拆法不是随意的。背后有一套叫字节对编码(BPE)的算法,它会在大规模语料上统计哪些字符组合出现频率最高,然后把这些高频组合固定成一个token。这样做的好处是词表不会太大,同时常见词可以用最少的token表示。英文单词unbelievable会被拆成un、believ、able三个token,因为这三段在语料里反复出现,单独存比整个词存更划算。   

     中文的情况就不那么乐观了。汉字本身结构复杂,字形和语义的对应关系跟字母语言差异很大,现有主流模型的tokenizer大多是在英文语料上优化过的。结果就是,中文单字通常对应1到2个token,生僻字甚至要用3到4个token才能表示。同样一段话,中文消耗的token数量往往是英文的一点五到两倍。这不是歧视,是统计结果。   

     GPT-4o当前定价   

     输入:每百万token约2.5美元;输出:每百万token约10美元。输出单价是输入的四倍。   

     这个定价结构值得多看一眼。输入和输出是分开计费的,你发过去的每个字要钱,它回给你的每个字也要钱,而且输出比输入贵得多。原因不复杂:模型读你写的东西相对便宜,但让它从头生成一段文字,计算量要大得多。生成是比阅读更重的任务,所以贵。   

     长对话为什么会越来越贵   

     这里有一个很多人没意识到的机制。你和ChatGPT连续聊了三十轮,第三十条消息的计费并不是一条消息的成本。它是你前二十九条消息全部加起来,再加上这一条的总成本。每发一条新消息,你都在为整段对话历史重新付一次钱。   

     原因在于模型没有真正的持久记忆。它不像人一样把之前聊过的内容存在某个地方,下次直接调取。每次你发一条消息,系统会把从对话开始到现在的所有内容打包成一个完整的输入,一起送给模型处理。模型从头读一遍,才能接得上你这条新消息。读这一遍,就是一次完整的token消耗。   

     成本不是随对话轮次线性增长的,而是接近二次方增长。第N轮的累计开销,大致正比于N的平方。   

实际操作里,聊到某个话题深了之后,新开一个对话窗口、把必要的上下文手动粘贴进去,往往比让模型回滚整段历史要省得多。这不是偷懒,是在顺着token机制用工具。   

     理解这件事能改变什么   

     搞懂token机制之后,几个实用判断自然就出来了。同样的问题,用英文问比用中文问便宜将近一半,因为英文的token效率更高。如果你的任务是让模型分析一段中文材料,可以用英文写prompt、要求用中文输出,这样输入端的token消耗会小一些。复杂的系统提示词,值得花时间精简,因为它会在每一次对话里都被重复计入输入。   

     还有一个容易忽略的点:模型的上下文窗口是有上限的。GPT-4o目前支持最多十二万八千个token的上下文。听起来很多,但如果你在做文档分析、代码审查这类任务,一份稍长的材料加上对话历史,很快就能逼近这个边界。超出上限的内容会被截断,模型就真的「忘了」。所以上下文窗口不只是技术参数,它直接决定了模型能同时处理多少信息。   

     这些调整单次看起来都是小事。但如果你每天都在用,月底对账的时候,差距能拉开一个数量级。更重要的是,理解token之后你会对模型的行为有更准确的预期,知道它为什么有时候会「忘事」,知道为什么长对话到后期回答质量会下降,知道为什么同一个问题换个语言问结果会有微妙差异。   

Token////

     ✦ 小结   

     Token不是字数单位,是模型的思考单位。它决定了AI处理信息的方式、速度和成本边界。中文比英文贵、长对话比短对话贵、输出比输入贵,这些都不是定价策略,是底层机制的直接体现。看懂了这个,账单就不玄了,用法也会跟着变。