# 通义千问 API ## Docs - [首次调用通义千问API](https://hyihfflxg9.apifox.cn/6107982m0.md): - 文本生成 > 深度思考(QwQ) [深度思考(QwQ)概括](https://hyihfflxg9.apifox.cn/6154724m0.md): - 文本生成 > 翻译能力 [Qwen-MT模型](https://hyihfflxg9.apifox.cn/6108444m0.md): - 文本生成 > 翻译能力 [支持的语言](https://hyihfflxg9.apifox.cn/6110046m0.md): - 文本生成 > 数学能力 [模型概览](https://hyihfflxg9.apifox.cn/6110049m0.md): - 文本生成 > 代码能力 [模型概览](https://hyihfflxg9.apifox.cn/6110065m0.md): - 文本生成 > 流式输出(Stream) [概述](https://hyihfflxg9.apifox.cn/6110100m0.md): - 文本生成 > 工具调用(Function Calling) [概述](https://hyihfflxg9.apifox.cn/6110138m0.md): - 文本生成 > 结构化输出(Json Mode) [支持的模型](https://hyihfflxg9.apifox.cn/6110143m0.md): - 文本生成 > 前缀续写(Partial Mode) [支持的模型](https://hyihfflxg9.apifox.cn/6110147m0.md): - 文本生成 > 批量推理(Batch) [概述](https://hyihfflxg9.apifox.cn/6110168m0.md): - 文本生成 > 上下文缓存(Context Cache) [概述](https://hyihfflxg9.apifox.cn/6110175m0.md): - 视觉理解 > 全模态(Qwen-Omni ) [概述](https://hyihfflxg9.apifox.cn/6110190m0.md): ## API Docs - 文本生成 > 深度思考(QwQ) [快速开始](https://hyihfflxg9.apifox.cn/268242708e0.md): API 使用前提:已[获取API Key](https://help.aliyun.com/zh/model-studio/developer-reference/get-api-key)并完成[配置API Key到环境变量](https://help.aliyun.com/zh/model-studio/developer-reference/configure-api-key-through-environment-variables)。如果通过SDK调用,需要[安装 OpenAI 或 DashScope SDK](https://help.aliyun.com/zh/model-studio/developer-reference/install-sdk#8833b9274f4v8)(DashScope Java SDK 版本需要不低于2.18.2)。 - 文本生成 > 深度思考(QwQ) [多轮对话](https://hyihfflxg9.apifox.cn/268248971e0.md): QwQ 模型 API 默认不会记录您的历史对话信息。多轮对话功能可以让大模型“拥有记忆”,满足如追问、信息采集等需要连续交流的场景。您在使用 QwQ 模型时,会接收到`reasoning_content`字段(思考过程)与`content`(回复内容),您可以将`content`字段通过`{'role': 'assistant', 'content':拼接后的流式输出content}`添加到上下文,无需添加`reasoning_content`字段。 - 文本生成 > 长上下文 > 通过file-id传入文档信息 [简单示例](https://hyihfflxg9.apifox.cn/265962220e0.md): 在通过 `system message` 提供文档信息时,建议同时设置一个正常role-play的system message,如默认的 “You are a helpful assistant.”,角色设定会对文档的处理效果产生影响,因此建议在消息中明确设定自己的角色。 - 文本生成 > 长上下文 > 通过file-id传入文档信息 [传入多文档](https://hyihfflxg9.apifox.cn/265962753e0.md): 您可以在一条System Message中传入多个`file-id`,在一次请求中处理多个文档。使用方式请参考示例代码。 - 文本生成 > 长上下文 > 通过file-id传入文档信息 [追加文档](https://hyihfflxg9.apifox.cn/265963811e0.md): - 文本生成 > 长上下文 > 通过纯文本传入信息 [简单示例](https://hyihfflxg9.apifox.cn/265964492e0.md): 您可以直接将文档内容输入System Message中。 - 文本生成 > 长上下文 > 通过纯文本传入信息 [传入多文档](https://hyihfflxg9.apifox.cn/265964699e0.md): 当您在本轮对话需要传入多个文档时,可以将文档内容放在不同的System Message中。 - 文本生成 > 长上下文 > 通过纯文本传入信息 [追加文档](https://hyihfflxg9.apifox.cn/265964971e0.md): 在您与模型的交互过程中,可能需要补充新的文档信息。您可以在Messages 数组中添加新的文档内容到System Message中来实现这一效果。 - 文本生成 > 长上下文 > 通过JSON字符串传入文档信息 [简单示例](https://hyihfflxg9.apifox.cn/265965520e0.md): - 文本生成 > 长上下文 > 通过JSON字符串传入文档信息 [传入多文档](https://hyihfflxg9.apifox.cn/265965592e0.md): - 文本生成 > 长上下文 > 通过JSON字符串传入文档信息 [追加文档](https://hyihfflxg9.apifox.cn/265965721e0.md): 在您与模型的交互过程中,可能需要补充新的文档信息。您可以在Messages 数组中添加新的JSON格式化后的文档内容到System Message中,来实现这一效果。 - 文本生成 > 翻译能力 [简单示例](https://hyihfflxg9.apifox.cn/265968775e0.md): 此处以将中译英的简单场景为例。通过参考[支持的语言](https://help.aliyun.com/zh/model-studio/user-guide/machine-translation?spm=a2c4g.11186623.help-menu-2400256.d_1_0_0_1.5d746651VaLAqH&scm=20140722.H_2860790._.OR_help-T_cn~zh-V_1#038d2865bbydc),您可以将`source_lang`参数设为`"Chinese"`,`target_lang`参数设为`"English"`,需要翻译的语言`“我看到这个视频后没有笑”`传入 User Message,发起请求后即可得到翻译的结果。 - 文本生成 > 翻译能力 [流式输出](https://hyihfflxg9.apifox.cn/265970780e0.md): 大模型收到输入后并不是一次性生成最终结果,而是逐步地生成中间结果,最终结果由中间结果拼接而成。使用非流式输出方式需要等待模型生成结束后再将生成的中间结果拼接后返回,而流式输出可以实时地将中间结果返回,您可以在模型进行输出的同时进行阅读,减少等待模型回复的时间。 - 文本生成 > 翻译能力 [术语干预翻译](https://hyihfflxg9.apifox.cn/265970948e0.md): 如果需要翻译的语句中有较多专业术语,直接使用[简单示例](https://help.aliyun.com/zh/model-studio/user-guide/machine-translation?spm=a2c4g.11186623.help-menu-2400256.d_1_0_0_1.5d746651VaLAqH&scm=20140722.H_2860790._.OR_help-T_cn~zh-V_1#6112a1631btw6)中的方法可能无法准确翻译。您可以提前对这些术语进行翻译,并将其提供给Qwen-MT模型作为参考,使其能够结合您提供的术语来进行翻译。 - 文本生成 > 翻译能力 [使用翻译记忆](https://hyihfflxg9.apifox.cn/265971514e0.md): 如果您已经有标准的双语句对并且希望大模型在后续翻译时能参考这些标准译文给出结果,可以使用翻译记忆功能。 - 文本生成 > 翻译能力 [领域提示](https://hyihfflxg9.apifox.cn/266041029e0.md): 如果您希望翻译的风格更符合某个领域的特性,如法律、政务领域翻译用语应当严肃正式,社交领域用语应当口语化,可以用一段自然语言文本描述您的领域,将其提供给大模型作为提示。 - 文本生成 > 数学能力 [示例代码](https://hyihfflxg9.apifox.cn/266042201e0.md): 您需要已[获取API Key](https://help.aliyun.com/zh/model-studio/developer-reference/get-api-key)并[配置API Key到环境变量](https://help.aliyun.com/zh/model-studio/developer-reference/configure-api-key-through-environment-variables)。如果通过OpenAI SDK或DashScope SDK进行调用,还需要[安装SDK](https://help.aliyun.com/zh/model-studio/developer-reference/install-sdk)。 - 文本生成 > 代码能力 [简单示例](https://hyihfflxg9.apifox.cn/266042709e0.md): 此处以使用通义千问代码模型编写一个寻找质数的Python函数为例。 - 文本生成 > 代码能力 [代码补全](https://hyihfflxg9.apifox.cn/266042824e0.md): #### **基于前缀进行代码补全** - 文本生成 > 代码能力 [根据前缀和后缀生成中间内容](https://hyihfflxg9.apifox.cn/266042899e0.md): Completions 接口支持通过您给定的前缀与后缀生成中间内容,您可以在前缀中传入函数的名称、输入参数、使用说明等信息,在后缀中传入函数的返回参数等信息,Completions 接口将返回生成的代码。 - 文本生成 > 多轮对话 [开始使用](https://hyihfflxg9.apifox.cn/266043939e0.md): ## **如何使用** - 文本生成 > 流式输出(Stream) [开始使用](https://hyihfflxg9.apifox.cn/266044097e0.md): 通过 OpenAI 兼容方式开启流式输出十分简便,只需在请求参数中设置 `stream` 为 true 即可,详情请参见以下代码。 - 文本生成 > 结构化输出(Json Mode) [开始使用](https://hyihfflxg9.apifox.cn/266046695e0.md): ### **前提条件** - 文本生成 > 前缀续写(Partial Mode) [开始使用](https://hyihfflxg9.apifox.cn/266046822e0.md): ### **前提条件** - 视觉理解 > 全模态(Qwen-Omni ) [开始使用](https://hyihfflxg9.apifox.cn/266047527e0.md): ### **前提条件** - 视觉理解 > 全模态(Qwen-Omni ) [图片+文本输入](https://hyihfflxg9.apifox.cn/266047561e0.md): Qwen-Omni 模型支持传入多张图片。对输入图片的要求如下: - 视觉理解 > 全模态(Qwen-Omni ) [音频+文本输入](https://hyihfflxg9.apifox.cn/266047708e0.md): 只可以输入一个音频文件,大小不能超过 10 MB,时长最长 3 分钟。当前只支持以流式输出的方式进行调用。 - 视觉理解 > 全模态(Qwen-Omni ) [视频+文本输入](https://hyihfflxg9.apifox.cn/266047822e0.md): 视频的传入方式可以为[图片列表形式](https://help.aliyun.com/zh/model-studio/user-guide/qwen-omni?spm=a2c4g.11186623.help-menu-2400256.d_1_0_2.bb3b6371cs4opt#0f4360d63a8nk)或[视频文件形式(可理解视频中的音频)](https://help.aliyun.com/zh/model-studio/user-guide/qwen-omni?spm=a2c4g.11186623.help-menu-2400256.d_1_0_2.bb3b6371cs4opt#5ed48035d09so)。 - 视觉理解 > 全模态(Qwen-Omni ) [多轮对话](https://hyihfflxg9.apifox.cn/266047859e0.md): 您在使用 Qwen-Omni 模型的多轮对话功能时,需要注意: