DeepSeek 聊天
Spring AI 支持各种 DeepSeek AI 语言模型。您可以使用 DeepSeek 语言模型进行交互,并创建基于 DeepSeek 模型的多语言对话助手。
前提条件
您需要创建 DeepSeek API 密钥才能访问 DeepSeek 语言模型。
在 DeepSeek 注册页面 创建账户,并在 API 密钥页面 生成令牌。
Spring AI 项目定义了一个名为 spring.ai.deepseek.api-key
的配置属性,您应该将其设置为从 API 密钥页面获取的 API Key
值。
您可以在 application.properties
文件中设置此配置属性:
spring.ai.deepseek.api-key=<your-deepseek-api-key>
为了增强处理敏感信息(如 API 密钥)时的安全性,您可以使用 Spring 表达式语言(SpEL)引用自定义环境变量:
# 在 application.yml 中
spring:
ai:
deepseek:
api-key: ${DEEPSEEK_API_KEY}
# 在您的环境或 .env 文件中
export DEEPSEEK_API_KEY=<your-deepseek-api-key>
您还可以在应用程序代码中以编程方式设置此配置:
// 从安全源或环境变量获取 API 密钥
String apiKey = System.getenv("DEEPSEEK_API_KEY");
自动配置
Spring AI 为 DeepSeek 聊天模型提供了 Spring Boot 自动配置。
要启用它,请将以下依赖项添加到项目的 Maven pom.xml
文件中:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-deepseek</artifactId>
</dependency>
或添加到 Gradle build.gradle
文件中。
dependencies {
implementation 'org.springframework.ai:spring-ai-starter-model-deepseek'
}
提示:请参考 依赖管理 部分,将 Spring AI BOM 添加到您的构建文件中。
聊天属性
重试属性
前缀 spring.ai.retry
用作属性前缀,允许您配置 DeepSeek 聊天模型的重试机制。
属性 | 描述 | 默认值 |
---|---|---|
spring.ai.retry.max-attempts |
最大重试尝试次数。 |
10 |
spring.ai.retry.backoff.initial-interval |
指数退避策略的初始睡眠持续时间。 |
2 秒 |
spring.ai.retry.backoff.multiplier |
退避间隔乘数。 |
5 |
spring.ai.retry.backoff.max-interval |
最大退避持续时间。 |
3 分钟 |
spring.ai.retry.on-client-errors |
如果为 false,则抛出 NonTransientAiException,并且不会对 |
false |
spring.ai.retry.exclude-on-http-codes |
不应触发重试的 HTTP 状态代码列表(例如,抛出 NonTransientAiException)。 |
空 |
spring.ai.retry.on-http-codes |
应触发重试的 HTTP 状态代码列表(例如,抛出 TransientAiException)。 |
空 |
连接属性
前缀 spring.ai.deepseek
用作属性前缀,允许您连接到 DeepSeek。
属性 | 描述 | 默认值 |
---|---|---|
spring.ai.deepseek.base-url |
连接 URL |
|
spring.ai.deepseek.api-key |
API 密钥 |
- |
配置属性
前缀 spring.ai.deepseek.chat
是属性前缀,允许您配置 DeepSeek 的聊天模型实现。
属性 | 描述 | 默认值 |
---|---|---|
spring.ai.deepseek.chat.enabled |
启用 DeepSeek 聊天模型。 |
true |
spring.ai.deepseek.chat.base-url |
可选地覆盖 spring.ai.deepseek.base-url 以提供聊天特定的 URL |
|
spring.ai.deepseek.chat.api-key |
可选地覆盖 spring.ai.deepseek.api-key 以提供聊天特定的 API 密钥 |
- |
spring.ai.deepseek.chat.completions-path |
聊天完成端点的路径 |
/chat/completions |
spring.ai.deepseek.chat.beta-prefix-path |
beta 功能端点的前缀路径 |
/beta/chat/completions |
spring.ai.deepseek.chat.options.model |
要使用的模型 ID。您可以使用 deepseek-coder 或 deepseek-chat。 |
deepseek-chat |
spring.ai.deepseek.chat.options.frequencyPenalty |
-2.0 到 2.0 之间的数字。正值会根据文本中现有频率对新标记进行惩罚,从而降低模型重复相同行的可能性。 |
0.0f |
spring.ai.deepseek.chat.options.maxTokens |
在聊天完成中生成的最大标记数。输入标记和生成标记的总长度受模型上下文长度的限制。 |
- |
spring.ai.deepseek.chat.options.presencePenalty |
-2.0 到 2.0 之间的数字。正值会根据它们是否出现在文本中对新标记进行惩罚,增加模型讨论新主题的可能性。 |
0.0f |
spring.ai.deepseek.chat.options.stop |
API 将停止生成更多标记的最多 4 个序列。 |
- |
spring.ai.deepseek.chat.options.temperature |
使用的采样温度,在 0 到 2 之间。较高的值(如 0.8)会使输出更随机,而较低的值(如 0.2)会使输出更集中和确定。我们通常建议更改此值或 top_p,但不要同时更改两者。 |
1.0F |
spring.ai.deepseek.chat.options.topP |
温度采样的替代方案,称为核采样,其中模型考虑具有 top_p 概率质量的标记结果。因此 0.1 意味着只考虑构成前 10% 概率质量的标记。我们通常建议更改此值或温度,但不要同时更改两者。 |
1.0F |
spring.ai.deepseek.chat.options.logprobs |
是否返回输出标记的对数概率。如果为 true,则返回消息内容中返回的每个输出标记的对数概率。 |
- |
spring.ai.deepseek.chat.options.topLogprobs |
0 到 20 之间的整数,指定在每个标记位置返回的最可能标记的数量,每个标记都有相关的对数概率。如果使用此参数,必须将 logprobs 设置为 true。 |
- |
注意:您可以为 ChatModel
实现覆盖通用的 spring.ai.deepseek.base-url
和 spring.ai.deepseek.api-key
。
如果设置了 spring.ai.deepseek.chat.base-url
和 spring.ai.deepseek.chat.api-key
属性,它们将优先于通用属性。
如果您想为不同的模型和不同的模型端点使用不同的 DeepSeek 账户,这很有用。
提示:所有以 spring.ai.deepseek.chat.options
为前缀的属性都可以通过在 Prompt
调用中添加请求特定的 运行时选项 在运行时被覆盖。
运行时选项
DeepSeekChatOptions.java 提供模型配置,例如要使用的模型、温度、频率惩罚等。
在启动时,可以使用 DeepSeekChatModel(api, options)
构造函数或 spring.ai.deepseek.chat.options.*
属性配置默认选项。
在运行时,您可以通过在 Prompt
调用中添加新的、请求特定的选项来覆盖默认选项。
例如,要覆盖特定请求的默认模型和温度:
ChatResponse response = chatModel.call(
new Prompt(
"生成 5 个著名海盗的名字。请提供 JSON 响应,不要有任何代码块标记,如 ```json```。",
DeepSeekChatOptions.builder()
.withModel(DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue())
.withTemperature(0.8f)
.build()
));
提示:除了模型特定的 DeepSeekChatOptions 之外,您还可以使用可移植的 ChatOptions 实例,使用 ChatOptionsBuilder#builder() 创建。
示例控制器(自动配置)
创建 一个新的 Spring Boot 项目,并将 spring-ai-starter-model-deepseek
添加到您的 pom(或 gradle)依赖项中。
在 src/main/resources
目录下添加 application.properties
文件以启用和配置 DeepSeek 聊天模型:
spring.ai.deepseek.api-key=YOUR_API_KEY
spring.ai.deepseek.chat.options.model=deepseek-chat
spring.ai.deepseek.chat.options.temperature=0.8
提示:用您的 DeepSeek 凭据替换 api-key
。
这将创建一个 DeepSeekChatModel
实现,您可以将其注入到您的类中。
以下是一个简单的 @Controller
类示例,它使用聊天模型进行文本生成。
@RestController
public class ChatController {
private final DeepSeekChatModel chatModel;
@Autowired
public ChatController(DeepSeekChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "给我讲个笑话") String message) {
return Map.of("generation", chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "给我讲个笑话") String message) {
var prompt = new Prompt(new UserMessage(message));
return chatModel.stream(prompt);
}
}
聊天前缀完成
聊天前缀完成遵循聊天完成 API,用户提供助手的前缀消息,让模型完成消息的其余部分。
使用前缀完成时,用户必须确保消息列表中的最后一条消息是 DeepSeekAssistantMessage。
以下是聊天前缀完成的完整 Java 代码示例。在此示例中,我们将助手的前缀消息设置为 "```python\n",以强制模型输出 Python 代码,并将 stop 参数设置为 [‘`’] 以防止模型进行额外解释。
@RestController
public class CodeGenerateController {
private final DeepSeekChatModel chatModel;
@Autowired
public ChatController(DeepSeekChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generatePythonCode")
public String generate(@RequestParam(value = "message", defaultValue = "请写一个快速排序代码") String message) {
UserMessage userMessage = new UserMessage(message);
Message assistantMessage = DeepSeekAssistantMessage.prefixAssistantMessage("```python\\n");
Prompt prompt = new Prompt(List.of(userMessage, assistantMessage), ChatOptions.builder().stopSequences(List.of("```")).build());
ChatResponse response = chatModel.call(prompt);
return response.getResult().getOutput().getText();
}
}
推理模型(deepseek-reasoner)
deepseek-reasoner
是 DeepSeek 开发的推理模型。在提供最终答案之前,模型首先生成思维链(CoT)以提高其响应的准确性。我们的 API 允许用户访问 deepseek-reasoner
生成的 CoT 内容,使他们能够查看、显示和提取它。
您可以使用 DeepSeekAssistantMessage
获取 deepseek-reasoner
生成的 CoT 内容。
public void deepSeekReasonerExample() {
DeepSeekChatOptions promptOptions = DeepSeekChatOptions.builder()
.model(DeepSeekApi.ChatModel.DEEPSEEK_REASONER.getValue())
.build();
Prompt prompt = new Prompt("9.11 和 9.8,哪个更大?", promptOptions);
ChatResponse response = chatModel.call(prompt);
// 获取 deepseek-reasoner 生成的 CoT 内容,仅在使用 deepseek-reasoner 模型时可用
DeepSeekAssistantMessage deepSeekAssistantMessage = (DeepSeekAssistantMessage) response.getResult().getOutput();
String reasoningContent = deepSeekAssistantMessage.getReasoningContent();
String text = deepSeekAssistantMessage.getText();
}
推理模型多轮对话
在对话的每一轮中,模型都会输出 CoT(reasoning_content)和最终答案(content)。在下一轮对话中,前几轮的 CoT 不会连接到上下文中,如下图所示:

请注意,如果在输入消息序列中包含 reasoning_content 字段,API 将返回 400 错误。因此,在发出 API 请求之前,您应该从 API 响应中删除 reasoning_content 字段,如 API 示例所示。
public String deepSeekReasonerMultiRoundExample() {
List<Message> messages = new ArrayList<>();
messages.add(new UserMessage("9.11 和 9.8,哪个更大?"));
DeepSeekChatOptions promptOptions = DeepSeekChatOptions.builder()
.model(DeepSeekApi.ChatModel.DEEPSEEK_REASONER.getValue())
.build();
Prompt prompt = new Prompt(messages, promptOptions);
ChatResponse response = chatModel.call(prompt);
DeepSeekAssistantMessage deepSeekAssistantMessage = (DeepSeekAssistantMessage) response.getResult().getOutput();
String reasoningContent = deepSeekAssistantMessage.getReasoningContent();
String text = deepSeekAssistantMessage.getText();
messages.add(new AssistantMessage(Objects.requireNonNull(text)));
messages.add(new UserMessage("单词 'strawberry' 中有多少个 R?"));
Prompt prompt2 = new Prompt(messages, promptOptions);
ChatResponse response2 = chatModel.call(prompt2);
DeepSeekAssistantMessage deepSeekAssistantMessage2 = (DeepSeekAssistantMessage) response2.getResult().getOutput();
String reasoningContent2 = deepSeekAssistantMessage2.getReasoningContent();
return deepSeekAssistantMessage2.getText();
}
手动配置
DeepSeekChatModel 实现了 ChatModel
和 StreamingChatModel
,并使用 低级 DeepSeekApi 客户端 连接到 DeepSeek 服务。
将 spring-ai-deepseek
依赖项添加到项目的 Maven pom.xml
文件中:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-deepseek</artifactId>
</dependency>
或添加到 Gradle build.gradle
文件中。
dependencies {
implementation 'org.springframework.ai:spring-ai-deepseek'
}
提示:请参考 依赖管理 部分,将 Spring AI BOM 添加到您的构建文件中。
接下来,创建 DeepSeekChatModel
并使用它进行文本生成:
var deepSeekApi = new DeepSeekApi(System.getenv("DEEPSEEK_API_KEY"));
var chatModel = new DeepSeekChatModel(deepSeekApi, DeepSeekChatOptions.builder()
.withModel(DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue())
.withTemperature(0.4f)
.withMaxTokens(200)
.build());
ChatResponse response = chatModel.call(
new Prompt("生成 5 个著名海盗的名字。"));
// 或者使用流式响应
Flux<ChatResponse> streamResponse = chatModel.stream(
new Prompt("生成 5 个著名海盗的名字。"));
DeepSeekChatOptions
提供聊天请求的配置信息。
DeepSeekChatOptions.Builder
是一个流畅的选项构建器。
低级 DeepSeekApi 客户端
DeepSeekApi 是 DeepSeek API 的轻量级 Java 客户端。
以下是显示如何以编程方式使用 API 的简单代码片段:
DeepSeekApi deepSeekApi =
new DeepSeekApi(System.getenv("DEEPSEEK_API_KEY"));
ChatCompletionMessage chatCompletionMessage =
new ChatCompletionMessage("你好世界", Role.USER);
// 同步请求
ResponseEntity<ChatCompletion> response = deepSeekApi.chatCompletionEntity(
new ChatCompletionRequest(List.of(chatCompletionMessage), DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue(), 0.7f, false));
// 流式请求
Flux<ChatCompletionChunk> streamResponse = deepSeekApi.chatCompletionStream(
new ChatCompletionRequest(List.of(chatCompletionMessage), DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue(), 0.7f, true));
请参阅 DeepSeekApi.java 的 JavaDoc 获取更多信息。
DeepSeekApi 示例
-
DeepSeekApiIT.java 测试提供了一些关于如何使用轻量级库的一般示例。