mofcloud AI 价格浏览器

LLM API 价格对比工具

在同样的 prompt tokens、completion tokens 和每日请求量下,直接比较 OpenAI、Claude、DeepSeek 等模型的 API 成本。这个页面更适合做横向预算判断,而不是单模型试算。

多模型 API 成本对比

一次输入同样的 tokens 和请求量,直接比较 3 个模型的单次、每日和每月成本。这个页面只做横向比较,不再混入单模型试算。

选择对比模型 建议跨供应商各选一个主力模型,更容易看出价格梯度;如果选重复了,系统会自动补成不同模型
默认试算参数 1,200 输入 tokens + 800 输出 tokens + 每日 1,000 次请求
对比口径 每个模型都用同一组输入参数,这样更适合看预算差异

怎么用这个页面做预算对比

这个工具页的核心不是“算一个模型贵不贵”,而是“在同样业务工作量下,几个模型谁更省,差多少”。

最稳的做法是先把你的平均输入 tokens、平均输出 tokens 和每日请求量估出来,再把这些参数固定下来。这样对比出来的差额,才真正反映 API 定价差异,而不是业务参数变化。

如果你还没有稳定的平均值,就切到区间模式,用一个保守下限和一个相对宽松的上限去看预算范围。这样更适合产品还在测试期、流量和回复长度都还不稳定的阶段。

如果你只想深入看某一个模型,可以回到 Token 成本计算器;如果你还想看更多模型和静态对比页,可以继续浏览 完整模型价格索引

如果你已经把候选模型缩小到 1 个,并开始评估“继续走 API 还是切到自建 GPU”,下一步就可以去 GPU vs API 成本计算器 做更接近部署阶段的预算判断。

快速价格参考

这里只放少量模型做第一轮参考。想看完整价格、更多供应商和更多 compare 页面,可以继续去完整价格索引。

模型 供应商 输入价格(/百万 tokens) 输出价格(/百万 tokens)
Claude 3.5 Haiku Anthropic $0.80 $4
Claude Haiku 4.5 Anthropic $1 $5
Claude 3.7 Sonnet Anthropic $3 $15
Claude 3.5 Sonnet v2 Anthropic $3 $15
Claude Sonnet 4.6 Anthropic $3 $15
Claude Opus 4.6 Anthropic $5 $25

API 价格对比常见问题

这里整理了多模型预算比较时最容易混淆的几个问题。

这个页面和 Token 成本计算器有什么区别?

Token 成本计算器更适合先估算单个模型的预算,而这个页面更适合把同样一组业务参数同时套进多个模型里,直接看预算差异。

为什么这里一定要用同一组 tokens 和请求量?

只有统一输入参数,横向比较才有意义。否则模型之间的差异会混入不同的业务工作量,结果就不再是纯价格比较。

区间估算模式适合什么场景?

如果你还没有稳定的平均 tokens,只知道一个大概范围,就可以用区间模式先看预算上下限,帮助团队做更保守的成本评估。

如果我想看更多模型的原始价格,应该去哪里?

可以继续去完整模型价格页浏览所有模型、供应商和静态 compare 页面。这个工具页只做同参数下的成本对比,不替代价格索引。

想继续了解 AI 与云资源的成本管理方式?

在 mofcloud 查看更多关于 AI 基础设施、模型调用成本和资源优化的内容。

进入 mofcloud.cn 继续浏览模型价格