新模型支持
我们现已支持 Qwen3-Coder-480B-A35B 模型(模型标识:Qwen3-Coder),该模型专为代码生成和理解优化,具备 256k 上下文长度和 64k 最大输出长度,支持 Claude Code、Cline、Roo Code 等工具。
快速开始
心流 API 提供与 OpenAI 100% 兼容的接口服务,让您可以无缝切换到我们的 AI 服务,享受更高性能和更具成本效益的解决方案。
第一步:获取 API 密钥
- 访问 心流官网 并完成注册登录
- 在用户设置页面生成您的专属 API KEY
- 妥善保存 API KEY,用于后续接口调用
💡 提示:API KEY 具有完整的账户权限,请勿泄露给他人。
第二步:了解支持的模型
目前我们支持以下 AI 模型:
模型名称 | 模型标识 | 上下文长度 | 最大输出长度 |
---|---|---|---|
TBSTARS-2.0-200B-A13B | TBStars2-200B-A13B | 32k | 32k |
DeepSeek-R1-671B | DeepSeek-R1 | 128k | 32k |
DeepSeek-V3-671B | DeepSeek-V3 | 128k | 32k |
Qwen3-32B | Qwen3-32B | 128k | 32k |
Qwen3-235B-A22B | Qwen3-235B | 128k | 32k |
Qwen3-Coder-480B-A35B | Qwen3-Coder | 256k | 64k |
Kimi K2 | KIMI-K2 | 128k | 64k |
Qwen3-235B-A22B-Thinking | Qwen3-235B-A22B-Thinking-2507 | 256k | 64k |
Qwen3-235B-A22B-Instruct | Qwen3-235B-A22B-Instruct | 256k | 64k |
第三步:配置接口参数
使用以下配置信息来调用心流 API:
参数名称 | 参数值 | 说明 |
---|---|---|
Base URL | https://apis.iflow.cn/v1/chat/completions | 聊天完成接口 |
API Key | 你的密钥 | 在 控制台 获取 |
第四步:开始调用接口
基础示例
以下是使用不同编程语言调用心流 API 的示例:
- Bash/cURL
- Python
- JavaScript
curl https://apis.iflow.cn/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "TBStars2-200B-A13B",
"messages": [
{"role": "system", "content": "你是一个专业的AI助手。"},
{"role": "user", "content": "请介绍一下人工智能的发展历史"}
],
"temperature": 0.7,
"max_tokens": 1000
}'
import requests
# 配置 API
url = "https://apis.iflow.cn/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
# 请求数据
data = {
"model": "TBStars2-200B-A13B",
"messages": [
{"role": "user", "content": "解释一下量子计算的基本原理"}
],
"temperature": 0.7,
"max_tokens": 1000
}
# 发起请求
response = requests.post(url, json=data, headers=headers)
result = response.json()
# 打印结果
print(result["choices"][0]["message"]["content"])
const response = await fetch('https://apis.iflow.cn/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'TBStars2-200B-A13B',
messages: [
{role: 'user', content: '写一个快速排序算法的 Python 实现'}
],
temperature: 0.7,
max_tokens: 1000
})
});
const data = await response.json();
console.log(data.choices[0].message.content);
下一步
🚀 开始构建:现在您已经掌握了基础用法,可以开始在您的项目中集成心流 API 了!