项目
博客
文档
归档
资源链接
关于我
项目
博客
文档
归档
资源链接
关于我
免费API大模型汇总
2024-07-25
·
·
转载
·
AIGC
AI大模型
API
·
本文共 899个字,预计阅读需要 3分钟。
### 免费大模型API一览 | 大模型 | 免费版本 | 免费限制 | 控制台(api_key等) | | -------------------------- | --------------------------- | ------------------------------------------------------------ | ------------------- | | 讯飞星火大模型 | spark-lite | tokens:总量无限;
QPS:2;(每秒发送的请求数)有效期:不限 | 访问链接 | | 百度千帆大模型平台 | ERNIE-Speed-8K | RPM = 300,TPM = 300000
(RPM是每分钟请求数(Requests Per Minute),
TPM是指每分钟处理的tokens数量) | 访问链接 | | ERNIE-Speed-128K | RPM = 60,TPM = 300000 | | | | ERNIE-Lite-8K-0922 | RPM = 300,TPM = 300000 | | | | ERNIE-Lite-8K | RPM = 300,TPM = 300000 | | | | ERNIE-Tiny-8K | RPM = 300,TPM = 300000 | | | | 腾讯混元大模型 | hunyuan-lite | 限制并发数为 5 路 | 访问链接 | | 字节扣子(coze.cn) | 豆包·Function call模型(32K) | 当前扣子 API 免费供开发者使用,
每个空间的 API 请求限额如下:
QPS (每秒发送的请求数):2
QPM (每分钟发送的请求数):60
QPD (每天发送的请求数):3000 | 访问链接 | | 通义千问-Max(8K) | | | | | MiniMax 6.5s(245K) | | | | | Moonshot(8K) | | | | | Moonshot(32K) | | | | | Moonshot(128K) | | | | | Llama Family | Atom-13B-Chat | 每天 8-22 点:接口限速每分钟 20 次并发;
每天 22-次日 8 点:接口限速每分钟 50 次并发 | 访问链接 | | Atom-7B-Chat | | | | | Atom-1B-Chat | | | | | Llama3-Chinese-8B-Instruct | | | | | groq | gemma-7b-it | rpm为30,rpd为14400,
TOKENS PER MINUTE也有限制 | 访问链接 | | mixtral-8x7b-32768 | | | | | llama3-70b-8192 | | | | | llama3-8b-8192 | | | | | Google Gemini | gemini-1.5-pro | 15RPM(每分钟请求数);
100万 TPM(每分钟tokens);
1500 RPD(每天请求数) | 访问链接 | | gemini-1.5-flash | | | | | gemini-1.0-pro | | | | | gemini-pro-vision | | | | | 硅基流动 | Qwen2-7B-Instruct | RPM限制为100,QPS限制为3,
更多可以进行申请 | 访问链接 | | Qwen2-1.5B-Instruct | | | | | Qwen1.5-7B-Chat | | | | | glm-4-9b-chat | | | | | chatglm3-6b | | | | | Yi-1.5-9B-Chat-16K | | | | | Yi-1.5-6B-Chat | | | | ### 讯飞星火spark-lite模型 spark-lite介绍页面https://xinghuo.xfyun.cn/sparkapi?scr=true ,到控制台https://console.xfyun.cn/services/cbm查看appid、apikey、apisecret信息,也可以到调试中心调试使用 星火认知大模型Web API文档中的代码直接可以用,记得替换其中的**SPARKAI_URL** 和 **SPARKAI_DOMAIN**值, **Spark Lite 请求地址,对应的domain参数为general:** https://spark-api.xf-yun.com/v1.1/chat ### 百度千帆speed和lite模型 到千帆平台上开通免费的模型https://console.bce.baidu.com/qianfan/ais/console/onlineService > 注意开通需要实名认证!!! 到应用接入中创建应用,这里就有了`AppID`、`API Key`、`Secret Key,`也可以到体验中心体验 https://console.bce.baidu.com/qianfan/ais/console/onlineTest 下面是ERNIE-Speed-8K的Python代码,你换其他模型只需要替换main()中的URL就行 | **模型** | **参数** | | ------------------ | ---------------- | | ERNIE-Speed-128K | ernie-speed-128k | | ERNIE-Speed-8K | ernie-speed | | ERNIE-Lite-8K-0922 | eb-instant | | ERNIE-Lite-8K | ernie-lite-8k | | ERNIE-Tiny-8K | ernie-tiny-8k | 代码: ```python import requests import json API_KEY = "你的API Key" SECRET_KEY = "你的Secret Key" def main(): url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie_speed?access_token=" + get_access_token() payload = json.dumps({ "messages": [ { "role": "user", "content": "你好" }, ] }) headers = { 'Content-Type': 'application/json' } response = requests.request("POST", url, headers=headers, data=payload) print(response.text) def get_access_token(): """ 使用 AK,SK 生成鉴权签名(Access Token) :return: access_token,或是None(如果错误) """ url = "https://aip.baidubce.com/oauth/2.0/token" params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY} return str(requests.post(url, params=params).json().get("access_token")) if __name__ == '__main__': main() ``` ### 腾讯混元hunyuan-lite模型 腾讯混元大模型接入地址https://console.cloud.tencent.com/hunyuan/start,点击创建密钥,到新页面,新建密钥 也可以到调试界面进行调试使用,在最开始表格中的文档查看,进去点击调试好了,选择你的代码复制到本地即可。 ### coze扣子API使用 在调用扣子 API 前,确保你已经创建了个人访问令牌,并将 Bot 发布为了 API 服务。 1. 创建个人访问令牌。 扣子 API 使用个人访问令牌进行身份验证和鉴权。你可以在个人访问令牌页面创建个人访问令牌,并添加对应权限。详细说明可参考鉴权 ![](https://yn-blog.oss-cn-chengdu.aliyuncs.com/v_2023/2024-07-25/291bc55f-72e8-4c13-9edc-d427da1857f8.jpg) 2. 将 Bot 发布为 API 服务。 进入目标空间,创建一个 Bot 或选择一个已创建的 Bot。 在编排页面,单击发布。 在发布页面,选择 Bot as API 选项,然后单击发布。 ![](https://yn-blog.oss-cn-chengdu.aliyuncs.com/v_2023/2024-07-25/174cc6b2-98f5-4d88-8585-a272d3cfce21.jpg) 简单的单轮对话Python代码如下:请确保将`{YOUR PERSONAL_ACCESS_TOKEN}`和`{YOUR BOT}`替换为实际的值,括号记得删掉。 ```python import requests url = "https://api.coze.cn/open_api/v2/chat" headers = { "Authorization": "Bearer {YOUR PERSONAL_ACCESS_TOKEN}", "Content-Type": "application/json", "Accept": "*/*", "Host": "api.coze.cn", "Connection": "keep-alive" } data = { "conversation_id": "123", "bot_id": "{YOUR BOT}", "user": "29032201862555", "query": "你好", "stream": False } response = requests.post(url, headers=headers, json=data) print(response.status_code) print(response.json()) ``` ### 硅基流动 进入https://cloud.siliconflow.cn/account/ak点击创建新API密钥, 这里是平台模型列表https://docs.siliconflow.cn/docs/model-names - Qwen/Qwen2-7B-Instruct (32K, 免费) - Qwen/Qwen2-1.5B-Instruct (32K, 免费) - Qwen/Qwen1.5-7B-Chat (32K, 免费) - THUDM/glm-4-9b-chat (32K, 免费) - THUDM/chatglm3-6b (32K, 免费) - 01-ai/Yi-1.5-9B-Chat-16K (16K, 免费) - 01-ai/Yi-1.5-6B-Chat (4K, 免费) 这里可以进行调试https://docs.siliconflow.cn/reference/user-info-1 下面附上Python代码,换上你的API密钥,括号记得删掉: ```python import requests url = "https://api.siliconflow.cn/v1/chat/completions" payload = { "model": "Qwen/Qwen2-7B-Instruct", "messages": [ { "role": "user", "content": "你好" } ], "max_tokens": 4096, "stream": False, "temperature": 0.5 } headers = { "accept": "application/json", "content-type": "application/json", "authorization": "Bearer {你的API密钥}" } response = requests.post(url, json=payload, headers=headers) print(response.text) ```