概述
知识检索依赖百炼侧的 file_search 工具。Ling.AI 不会自行执行知识库检索,而是把工具配置和请求体原样透传给上游。当前该能力仅支持通过 Responses API 调用。
前提条件
调用前需要先在上游创建知识库并拿到知识库 ID。请求中的 vector_store_ids 用于指定要检索的知识库,当前仅支持传入一个知识库 ID。
适用场景
适合产品手册问答、企业内部知识助手、政策或合规资料查询等私有知识场景。模型会先执行 file_search 检索,再根据召回内容生成回答。
Responses API
在 /v1/responses 中,通过 tools 声明 file_search,并在工具参数里传入 vector_store_ids 即可。
Python
from openai import OpenAI
client = OpenAI(
base_url="https://api.vip.lingapi.ai/v1",
api_key="sk-xxxxxxxx"
)
response = client.responses.create(
model="qwen3.5-plus",
input="介绍一下阿里云百炼 X1 手机",
tools=[
{
"type": "file_search",
"vector_store_ids": ["your_knowledge_base_id"]
}
]
)
print(response.output_text)
如果需要控制知识库来源,请把目标知识库 ID 填到 vector_store_ids 中。当前为了兼容上游行为,建议始终只传一个知识库 ID,避免多知识库输入在上游被拒绝或忽略。
流式输出
知识检索通常需要先完成语义召回,再进入生成阶段,建议开启 stream=True。在流式模式下,您可以按常规 Responses 事件处理模型输出,并在 response.completed 阶段读取最终 usage。
参数说明
| 参数 | 必填 | 说明 |
|---|---|---|
type |
是 | 固定为 file_search。 |
vector_store_ids |
是 | 知识库 ID 列表。当前仅支持传入一个知识库 ID。 |
计费说明
- 知识库召回内容会进入模型上下文,因此会增加输入 Token 成本。
file_search本身没有内置固定的按次单价文案,知识库检索费用请以上游知识库计费规则为准。- 若上游返回相关工具使用信息,Ling.AI 会原样保留在响应结构或用量信息中,便于审计与排查。