Back to blog
目前市面上免费的大模型API汇总(2024年12月30日)

目前市面上免费的大模型API汇总(2024年12月30日)

goodspeed
goodspeed
·5 min read

今天我给大家统计了 24-12 月免费可用的大模型 API,一共 13 个,请大家自取。

总结一下,表格在这里:

大模型 免费限制 文档地址
讯飞星火大模型 tokens:总量无限 QPS:2 有效期:不限 文档查看
百度千帆大模型平台 Lite、Speed-8 K:RPM = 300,TPM = 300000 Speed-128 K:RPM = 60,TPM = 300000 文档查看55
腾讯混元大模型 限制并发数为 5 路 链接
Cloudflare Workers AI 免费可以每天使用 1 万 token, 每天 UTC 0 点更新 文档查看
字节扣子 QPS (每秒发送的请求数):2 QPM (每分钟发送的请求数):60 QPD (每天发送的请求数):3000 文档查看
字节火山方舟 每个模型送 50 w tokens 文档查看
Llama Family 1. 每天 8-22 点:接口限速每分钟 20 次并发 2. 每天 22-次日 8 点:接口限速每分钟 50 次并发 文档查看
Groq rpm 为 30,rpd 为 14400,TOKENS PER MINUTE 也有限制 文档查看
Zhipu (智谱) tokens:总量无限 QPS:2 有效期:不限
图像大小上传限制为每张图像 5 M 以下,且像素不超过 6000*6000。
支持 jpg、png、jpeg 格式。
文档查看
SiliconCloud RPM 限制为 100,QPS 限制为 3,更多可以进行申请 文档查看
01 万物 RPM 限制为 4,单模型 TPM 32000~200000,充值可解锁更多,注册赠送 36 元,有 36 M 可用 token 文档查看
Google Gemini 15 RPM(每分钟请求数); 100 万 TPM(每分钟令牌); 1500 RPD(每天请求数) 链接
GLHF 使用 vLLM 和定制的自动扩展 GPU 调度程序来运行(几乎)任何开源大型语言模型:只需粘贴指向 Hugging Face 存储库的链接即可。可以使用我们的聊天 UI 或兼容 OpenAI 的 API。最多允许使用 8 个 Nvidia H 100 80 Gb GPU API

1. 讯飞星火大模型:小火苗也有大能量

  • 模型名字: 讯飞星火大模型
  • 可用的模型: spark-lite ( 别看它叫 lite,能量可不小!)
  • 免费限制: 这小火苗可是相当给力,tokens 使用总量无限,每秒还能处理 2 个请求,而且永久有效!简直是业界良心啊!
  • 访问链接: 控制台传送门
  • 文档地址: 说明书在这里

2. 百度千帆大模型平台:模型多到挑花眼

  • 模型名字: 百度千帆大模型平台
  • 可用的模型: yi_34 b_chat, ERNIE-Speed-8 K, ERNIE-Speed-128 K, ERNIE-Lite-8 K, ERNIE-Lite-8 K-0922, ERNIE-Tiny-8 K(这么多选择,够你玩一阵子了!)
  • 免费限制: Lite 和 Speed-8 K 模型每分钟可以处理 300 个请求,以及 300,000 个 tokens;Speed-128 K 模型则稍微“矜持”一点,每分钟 60 个请求和 300,000 个 tokens。
  • 访问链接: 控制台入口
  • 文档地址: 详细教程请看这里

3. 腾讯混元大模型:混元出击,势不可挡

  • 模型名字: 腾讯混元大模型
  • 可用的模型: hunyuan-lite (轻量级选手,性能也不错哦!)
  • 免费限制: 最多支持 5 个请求同时进行。
  • 访问链接: 控制台直达
  • 文档地址: 使用指南在此

4. Cloudflare Workers AI:全球加速,AI 也飞起来

  • 模型名字: Cloudflare Workers AI
  • 可用的模型: 所有模型(没错,全部免费!Cloudflare 大佬真是豪气!)
  • 免费限制: 每天可以使用 1 万个 tokens,每天 UTC 时间 0 点更新额度。
  • 访问链接: 控制台入口
  • 文档地址: 官方文档请戳这里

5. 字节扣子:百变扣子,无限可能

  • 模型名字: 字节扣子
  • 可用的模型: 豆包·Function call 模型 (32 K)、通义千问-Max (8 K)、MiniMax 6.5 s (245 K)、Moonshot(8 K)、Moonshot(32 K)、Moonshot(128 K)(模型选择多多,玩转 AI 不在话下!)
  • 免费限制: API 免费用,但每个空间的使用限制是:每秒 2 个请求,每分钟 60 个请求,每天 3000 个请求。
  • 访问链接: 控制台入口
  • 文档地址: 开发指南拿走不谢

6. 字节火山方舟:模型任你挑,计费更灵活!

  • 模型名字: 字节火山方舟
  • 可用的模型: 火山方舟现在提供了丰富的模型选择,包括豆包系列 (Doubao-lite 和 Doubao-pro,分别有 4K, 32K, 128K 和 256K 上下文长度)、智谱 AI 的 GLM3-130B 系列以及月之暗面的 Moonshot 系列。还有 Mistral AI 的开源模型 Mistral-7B。真是琳琅满目,总有一款适合你!
  • 免费限制: 现在火山方舟的计费方式更清晰啦!所有模型都按 token 使用量(包括输入和输出文本)计费,每小时出账,按量后付费。不过别担心,每个模型都给你准备了 50 万 token 的免费额度!够你先玩一阵子了。
  • 访问链接: 控制台传送门
  • 文档地址: 详细说明在这里

7. Llama Family:羊驼家族,实力不俗

  • 模型名字: Llama Family
  • 可用的模型: “Atom-13 B-Chat”, “Atom-7 B-Chat”, “Atom-1 B-Chat”, “Llama 3-Chinese-8 B-Instruct”(羊驼家族来袭,快来体验!)
  • 免费限制: 每天早上 8 点到晚上 10 点,每分钟 20 个请求;晚上 10 点到第二天早上 8 点,每分钟 50 个请求。
  • 访问链接: 控制台通道
  • 文档地址: 文档在此

8. Groq:性能怪兽,速度惊人

  • 模型名字: Groq
  • 可用的模型: “gemma-7 b-it、mixtral-8 x 7 b-32768、llama 3-70 b-8192、llama 3-8 b-8192”(速度与激情,Groq 给你带来极致体验!)
  • 免费限制: 每分钟 30 个请求,每天 14400 个请求,每分钟使用的 tokens 数量有限制。
  • 访问链接: 控制台密钥
  • 文档地址: 使用手册

9. Zhipu (智谱):清华出品,必属精品

  • 模型名字: Zhipu (智谱)
  • 可用的模型: GLM-4-Flash,GLM-4 V-Flash(清华出品,质量保证!)
  • 免费限制: GLM-4-Flash:tokens 使用总量无限,每秒 2 个请求,永久有效。GLM-4 V-Flash:图像大小限制为 5 M,像素不超过 6000*6000,支持 jpg、png 和 jpeg 格式。
  • 访问链接: 控制台入口
  • 文档地址: 使用指南

10. SiliconCloud:硅云起飞,AI 加速

  • 模型名字: SiliconCloud
  • 可用的模型: “Qwen 2.5(7 B)、Llama 3.1(8 B)等”(云端模型,即开即用!)
  • 免费限制: 每分钟 100 个请求,每秒 3 个请求,如需更多,可以申请。
  • 访问链接: 控制台入口
  • 文档地址: 官方文档

11. 01 万物:万物互联,AI 驱动

  • 模型名字: 01 万物
  • 可用的模型: yi-lightning / yi-large / yi-large-rag/yi-large-fc/yi-medium / yi-spark/yi-medium-200 k/yi-vision/yi-large-turbo(模型种类丰富,总有一款适合你!)
  • 免费限制: 每分钟 4 个请求,每个模型每分钟使用的 tokens 数量为 32000 到 200000,充值可解锁更多,注册送 36 元,相当于 36 M 可用 tokens。
  • 访问链接: 控制台入口
  • 文档地址: API 参考

12. Google Gemini:谷歌出品,必属精品

  • 模型名字: Google Gemini
  • 可用的模型: gemini-1.5-pro、gemini-1.5-flash、gemini-1.0-pro、gemini-pro-vision、gemini-2.0-flash-exp、gemini-2.0-flash-thinking-exp-1219 (谷歌出品,必属精品!)
  • 免费限制: 每分钟 15 个请求,每分钟 100 万个 tokens,每天 1500 个请求。
  • 访问链接: 控制台入口
  • 文档地址: API 说明

13. GLHF:开源大模型,任你选择

  • 模型名字: GLHF
  • 可用的模型: Meta Llama 3.1 405 b Instruct (and 70 b, and 8 b), Qwen 2 72 b, Mixtral 8 x 22 b, Gemma 2 27 b, Jamba 1.5 Mini (support for the Jamba 1.5 Large is in the works), Phi-3 (开源大模型,任你选择!)
  • 免费限制: 使用 vLLM 和定制的自动扩展 GPU 调度程序来运行(几乎)任何开源大型语言模型:只需粘贴指向 Hugging Face 存储库的链接即可。可以使用我们的聊天 UI 或兼容 OpenAI 的 API。最多允许使用 8 个 Nvidia H 100 80 Gb GPU。
  • 访问链接: API
  • 文档地址: API

好啦!以上就是这次免费全部内容,希望大家都能找到适合自己的 AI 模型,开启愉快的探索之旅!记得多多分享给身边的朋友哦! 🚀

Leave a Comment

Share your thoughts about this page. All fields marked with * are required.

We'll never share your email.

Comments

0