MiniMax API的Token消耗量=输入Token+输出Token,输入按messages全部字符计算,输出仅计content字段;TPS=输出Token数÷首末token时间差;上下文超限将截断且不计费;function call额外计入工具描述及调用内容;免费模型按日限额计费,超限返回403。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您调用MiniMax API接口,但对实际产生的Token消耗量缺乏清晰认知,则可能影响成本预估与资源调度。以下是计算该消耗量的准确公式及对应操作方式:
一、基础Token消耗公式
MiniMax API的单次请求Token总消耗量由输入部分与输出部分共同构成,其计算逻辑严格遵循行业通用范式。该数值直接决定计费金额与配额占用,是调用行为最核心的量化指标。
1、总Token消耗量 = 输入Token数量 + 输出Token数量
2、输入Token数量依据用户提交的messages数组内容逐字符解析,包括system、user、assistant各角色消息中的全部文本、标点、空格及特殊符号
3、输出Token数量依据模型实际返回的content字段完整内容进行统计,不含响应元数据(如request_id、created等字段)
二、输出吞吐速率(TPS)计算方式
TPS反映模型推理效率,虽不直接参与计费,但影响服务响应质量与并发承载能力。该值用于性能压测与服务端扩缩容决策,需在真实调用链路中实测获取。
1、启动计时器:从接收到API响应流的第一个token开始计时
2、停止计时器:在接收到响应流最后一个token后立即终止计时
3、计算公式为:TPS = 输出token数量 ÷ (最后一个token生成时间 − 第一个token生成时间)
三、上下文窗口对Token统计的影响
不同abab系列模型设定有差异化的最大上下文长度,超出部分将被截断且不计入Token消耗。该机制保障请求可被处理,但可能导致语义丢失,需在构造messages前主动控制总长度。
1、abab6.5g-chat支持最大245,000 Token上下文,但实际消耗仅按有效提交内容计算
2、abab6.5s支持最大128,000 Token上下文,若messages总长为130,000 Token,则仅前128,000 Token参与计费与推理
3、截断发生在服务端,客户端无法感知,建议在调用前使用tokenizer本地估算并预留10%余量
四、function call场景下的额外Token开销
当启用function calling能力时,系统需注入工具描述、参数Schema及调用结果摘要,这部分结构化内容将独立生成Token并计入总消耗。其开销不可忽略,尤其在多工具嵌套调用时呈叠加效应。
1、每个注册function的description字段全文计入输入Token
2、模型返回的function_call字段(含name与arguments)计入输出Token
3、若执行tool response后发起第二轮推理,上一轮的function_call + tool response整体作为新输入的一部分重新计费
五、免费体验模型的Token计量特殊规则
abab6.5系列当前仅提供免费体验额度,其Token计量方式与商用模型完全一致,但存在硬性配额上限。一旦触及阈值,后续请求将被拒绝而非降级,须提前识别该限制边界。
1、abab6.5g-chat免费额度为8,000 Token/日,按自然日重置
2、所有调用(含失败请求、超时中断、格式错误)均计入已用额度
3、额度耗尽后API返回HTTP 403错误,且不支持临时充值或额度提升










