通义千问 API
流式输出(Stream)
复制页面
通义千问 API
首次调用通义千问API
文本生成
深度思考(QwQ)
深度思考(QwQ)概括
快速开始
多轮对话
长上下文
通过file-id传入文档信息
简单示例
传入多文档
追加文档
通过纯文本传入信息
简单示例
传入多文档
追加文档
通过JSON字符串传入文档信息
简单示例
传入多文档
追加文档
翻译能力
Qwen-MT模型
支持的语言
简单示例
流式输出
术语干预翻译
使用翻译记忆
领域提示
数学能力
模型概览
示例代码
代码能力
模型概览
简单示例
代码补全
根据前缀和后缀生成中间内容
多轮对话
开始使用
流式输出(Stream)
概述
开始使用
POST
工具调用(Function Calling)
概述
结构化输出(Json Mode)
支持的模型
开始使用
前缀续写(Partial Mode)
支持的模型
开始使用
批量推理(Batch)
概述
上下文缓存(Context Cache)
概述
视觉理解
全模态(Qwen-Omni )
概述
开始使用
图片+文本输入
音频+文本输入
视频+文本输入
多轮对话
流式输出(Stream)
复制页面
概述
大模型收到输入后并不是一次性生成最终结果,而是逐步地生成中间结果,最终结果由中间结果拼接而成。用流式输出的方式调用大模型 API,能够实时返回中间结果,减少用户的阅读等待时间,并降低请求的超时风险。
概述
#
相比非流式输出,流式输出可以实时地将中间结果返回,您可以在模型进行输出的同时进行阅读,减少等待模型回复的时间;并且当输出内容较长时,有效降低请求超时的风险。
请求超时错误的报错信息:Request timed out, please try again later. 或 Response timeout。
以下为流式输出与非流式输出的效果对比。
修改于
2025-02-28 10:46:25
上一页
开始使用
下一页
开始使用