Java集成ChatGPT实战:PlexPt SDK核心功能与生产部署指南

news2026/5/14 4:11:11
1. 项目概述与核心价值如果你是一名Java开发者最近正琢磨着怎么在自己的应用里集成ChatGPT的能力比如做个智能客服、代码助手或者内容生成工具那你大概率已经搜过一圈了。官方的OpenAI API虽然强大但直接用在Java项目里从HTTP请求封装、错误处理到流式响应解析一堆琐碎的细节足够让人头疼。更别提国内网络环境的“特色”问题了。今天要聊的这个PlexPt/chatgpt-java项目就是专门为解决这些痛点而生的一个非官方SDK。我用它做过几个内部工具和演示项目整体感觉是它把调用ChatGPT这件事从“需要自己造轮子”变成了“开箱即用”极大地降低了集成门槛。简单来说chatgpt-java是一个轻量级、功能全面的Java客户端库让你能用几行代码就调用GPT-3.5、GPT-4乃至最新的GPT-4o模型。它的核心价值在于封装与简化把OpenAI API复杂的请求构建、身份认证、响应解析、错误重试、流式处理等细节都隐藏起来对外提供一套非常符合Java开发者习惯的、流畅的API。无论是同步调用获取完整回复还是接入SSEServer-Sent Events实现打字机式的流式输出甚至是实现复杂的函数调用Function Calling逻辑它都提供了清晰的支持。对于需要处理高并发或配额管理的场景它还内置了多API Key轮询机制这个设计非常实用。2. 核心功能深度解析与设计思路这个SDK的功能列表看起来挺丰富我们挨个拆开看看理解一下作者为什么要设计这些功能以及它们分别解决了什么问题。2.1 全模型支持与版本兼容性从功能表可以看到它支持从 GPT-3.5 到 GPT-4o-mini 的全系列模型。这不仅仅是简单地在代码里加几个字符串常量。OpenAI的API在迭代不同模型的请求参数、响应格式乃至计费方式都有细微差别。一个好的SDK需要做好抽象让开发者无需关心底层是哪个模型都能用同一套接口进行对话。chatgpt-java通过ChatCompletion.Model这个枚举类来管理模型标识符比如GPT_3_5_TURBO、GPT_4。当你构建请求时只需要指定枚举值SDK内部会将其转换为正确的API端点所需的模型字符串。这种设计保证了向前兼容性未来如果OpenAI发布了GPT-5SDK只需要更新这个枚举类而你的业务代码可能完全不需要改动。实操心得模型选择的经济账在实际项目中模型选择不是越新越好。GPT-4o虽然能力强但价格是GPT-3.5 Turbo的数十倍。对于大多数聊天、总结、翻译类任务GPT-3.5 Turbo已经完全够用成本优势巨大。GPT_4o_MINI是一个很好的平衡点它在保持较强能力的同时成本远低于完整的GPT-4o。SDK提供了选择自由但作为开发者你需要根据任务复杂度、响应速度要求和预算做出明智的选择。我通常会在开发测试阶段用GPT-3.5 Turbo上线前对关键场景用GPT-4o做一次质量校验。2.2 流式对话与上下文管理“流式对话”和“上下文”是构建连贯对话体验的两个基石。流式对话指的是服务器一边生成文本一边分片chunk发送给客户端客户端可以实时渲染实现类似打字机的效果。这对于提升用户体验至关重要没人愿意对着一个空白页面等上十秒钟才看到完整回答。chatgpt-java通过ChatGPTStream类和StreamListener监听器模式完美支持了这一点。你只需要提供一个监听器SDK会在收到每一个数据块时回调你的方法你可以立即将其推送到前端比如通过Spring的SseEmitter。而“上下文”则是指让AI记住之前的对话历史。OpenAI的API本身是无状态的你需要把整个对话历史包括用户消息和AI的回复作为消息列表messages在每次请求中发送过去。手动管理这个列表很麻烦特别是当对话轮次很多、需要控制token总数不超过模型上限时。虽然SDK的ChatContextHolder工具类提供了基础的上下文维护能力但在生产环境中我强烈建议你基于业务逻辑自己实现上下文管理。比如你可以将会话ID、消息列表持久化到数据库或Redis中并实现一个智能的“剪枝”策略当累计token数快达到上限时选择性丢弃最早或最不重要的几轮对话或者用一条系统消息来总结之前的对话要点从而腾出空间给新的交互。2.3 函数调用Function Calling的实现逻辑函数调用是GPT模型一个革命性的特性。它允许你描述一些工具函数给AIAI在认为需要时会请求调用这些函数并将函数的执行结果返回给AI由AI整合后生成最终回复给用户。这相当于让AI拥有了“使用工具”的能力比如查询天气、搜索数据库、执行计算等。chatgpt-java对函数调用的支持体现在ChatFunction类和相关的请求/响应解析上。你需要定义函数用ChatFunction对象描述你的函数名、功能说明和参数JSON Schema。在请求中传入函数列表。解析AI的响应。如果响应中的finish_reason是function_call就表示AI希望调用某个函数。执行本地函数获取结果。将函数执行结果作为一条特殊类型的消息Message.ofFunction再次发送给AI让AI基于这个结果生成面向用户的自然语言回复。这个过程听起来有点绕但SDK帮你封装了最繁琐的JSON解析和消息类型判断。你需要关注的是如何设计清晰、准确的函数描述这直接影响AI调用函数的准确性以及如何安全、高效地执行这些本地函数。2.4 多KEY轮询与代理支持这两个功能非常“接地气”直击国内开发者面临的现实问题。多KEY轮询单个API Key有每分钟/每天的请求次数RPM和token数量TPM限制。对于有一定用户量的应用很容易触发限流。多KEY轮询机制允许你配置一个API Key列表SDK会在内部以某种策略通常是简单的顺序或随机轮流使用它们自动将负载分散到多个Key上有效提升整体可用性和请求配额。这在构建需要服务一定规模用户的SaaS应用或内部平台时是必备功能。代理与反向代理支持由于网络限制直接访问api.openai.com可能不稳定或无法访问。SDK允许你配置HTTP或SOCKS5代理这是解决个人开发环境问题的常见方式。但更重要的功能是apiHost参数它允许你指定一个“反向代理”地址。你可以自己搭建一个反向代理服务器例如用Nginx将请求转发到OpenAI或者使用一些第三方提供的代理服务。这种方式比配置客户端代理更灵活也便于在服务器端统一管理网络策略和日志。3. 从零开始环境准备与项目集成理论说了不少我们动手把它用起来。假设你有一个基于Spring Boot的Web项目想集成ChatGPT的聊天能力。3.1 依赖引入与基础配置首先在你的pom.xml中加入SDK依赖。记得去Maven中央仓库查看最新版本本文撰写时是6.0.0。dependency groupIdcom.github.plexpt/groupId artifactIdchatgpt/artifactId version6.0.0/version /dependency接下来我们需要一个OpenAI的API Key。去OpenAI平台注册并创建API Key。切记这个Key如同你的密码绝对不能提交到公开的代码仓库如GitHub。标准的做法是将其放在环境变量或配置中心。在application.yml或application.properties中配置# application.yml openai: api-key: ${OPENAI_API_KEY:sk-your-key-here} # 优先从环境变量OPENAI_API_KEY读取 api-host: https://api.openai.com/ # 或你的反向代理地址 timeout: 600 # 超时时间单位秒然后创建一个配置类来初始化ChatGPT或ChatGPTStreamBean。这里以同步客户端为例import com.plexpt.chatgpt.ChatGPT; import com.plexpt.chatgpt.util.Proxys; import org.springframework.beans.factory.annotation.Value; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import java.net.Proxy; Configuration public class ChatGPTConfig { Value(${openai.api-key}) private String apiKey; Value(${openai.api-host}) private String apiHost; Value(${openai.timeout:600}) private int timeout; Bean public ChatGPT chatGPT() { // 仅在需要时配置代理例如开发环境在本地运行 Proxy proxy null; // proxy Proxys.http(127.0.0.1, 10809); // 本地代理端口 return ChatGPT.builder() .apiKey(apiKey) .apiHost(apiHost) .timeout(timeout) .proxy(proxy) // 如果不需要代理这里传null或不设置即可 .build() .init(); } }3.2 实现一个简单的聊天服务有了Bean我们就可以在Service层使用了。创建一个简单的聊天服务import com.plexpt.chatgpt.ChatGPT; import com.plexpt.chatgpt.entity.chat.ChatCompletion; import com.plexpt.chatgpt.entity.chat.ChatCompletionResponse; import com.plexpt.chatgpt.entity.chat.Message; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Service; import java.util.Arrays; Service public class ChatService { Autowired private ChatGPT chatGPT; public String chat(String userMessage) { // 1. 构建消息。可以加入系统消息来设定AI的角色。 Message systemMsg Message.ofSystem(你是一个乐于助人的助手。); Message userMsg Message.of(userMessage); // 2. 构建对话请求 ChatCompletion chatCompletion ChatCompletion.builder() .model(ChatCompletion.Model.GPT_3_5_TURBO.getName()) // 指定模型 .messages(Arrays.asList(systemMsg, userMsg)) // 传入消息列表 .maxTokens(1000) // 限制生成的最大token数控制回复长度 .temperature(0.7) // 创造性0-2之间越高越随机 .build(); // 3. 发送请求并获取响应 ChatCompletionResponse response chatGPT.chatCompletion(chatCompletion); // 4. 提取AI的回复内容 if (response ! null response.getChoices() ! null !response.getChoices().isEmpty()) { return response.getChoices().get(0).getMessage().getContent(); } else { throw new RuntimeException(Failed to get response from ChatGPT: response); } } }最后通过一个Controller暴露APIimport org.springframework.beans.factory.annotation.Autowired; import org.springframework.web.bind.annotation.*; RestController RequestMapping(/api/chat) public class ChatController { Autowired private ChatService chatService; PostMapping public String chat(RequestBody ChatRequest request) { // ChatRequest 是一个简单的DTO包含一个 prompt 字段 return chatService.chat(request.getPrompt()); } }启动你的Spring Boot应用用Postman或curl发送一个POST请求到/api/chatbody里带上{prompt: 你好介绍一下Java}你应该就能收到AI的回复了。至此一个最基本的集成已经完成。注意事项超时与重试网络请求总有可能失败。SDK的timeout参数设置了整个请求的超时时间。对于生产环境你还需要考虑更健壮的错误处理机制比如在Service层添加重试逻辑可以使用Spring Retry注解并记录详细的日志便于排查是网络问题、Key超限还是API服务本身的问题。4. 进阶实战构建流式聊天接口与函数调用基础功能跑通后我们来挑战两个更高级、也更实用的场景流式输出和函数调用。4.1 使用SSE实现流式聊天接口流式接口能极大提升用户体验。在Spring Boot中我们可以使用SseEmitter来实现服务器推送。首先我们需要注入ChatGPTStreamBean。Configuration public class ChatGPTConfig { // ... 其他配置同上 ... Bean public ChatGPTStream chatGPTStream() { // 配置与同步客户端类似但通常流式请求超时可以设短一些 return ChatGPTStream.builder() .apiKey(apiKey) .apiHost(apiHost) .timeout(300) // 流式响应超时可稍短 .build() .init(); } }然后创建一个专门的StreamChatService和SseController。SDK贴心地提供了一个SseStreamListener我们需要稍微改造一下以适应自己的业务逻辑。import com.plexpt.chatgpt.ChatGPTStream; import com.plexpt.chatgpt.entity.chat.ChatCompletion; import com.plexpt.chatgpt.entity.chat.Message; import com.plexpt.chatgpt.listener.SseStreamListener; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Service; import org.springframework.web.servlet.mvc.method.annotation.SseEmitter; import java.io.IOException; import java.util.Arrays; import java.util.UUID; import java.util.concurrent.ConcurrentHashMap; Service public class StreamChatService { Autowired private ChatGPTStream chatGPTStream; // 用于管理多个SSE连接可选针对多用户场景 private final ConcurrentHashMapString, SseEmitter emitters new ConcurrentHashMap(); public SseEmitter createStreamChat(String prompt, String sessionId) { // 为每个请求创建一个唯一的SseEmitter设置超时时间0表示永不超时生产环境建议设置 SseEmitter emitter new SseEmitter(0L); String emitterId sessionId ! null ? sessionId : UUID.randomUUID().toString(); emitters.put(emitterId, emitter); // 设置监听器处理流式返回的数据 SseStreamListener listener new SseStreamListener(emitter) { Override public void onMsg(String message) { // 每收到一个数据块就通过SseEmitter发送给前端 try { SseEmitter.SseEventBuilder event SseEmitter.event() .data(message) // 发送纯文本数据 .id(UUID.randomUUID().toString()) .name(message); emitter.send(event); } catch (IOException e) { // 发送失败可能是客户端已断开 emitter.completeWithError(e); emitters.remove(emitterId); } } Override public void onComplete(StringBuilder fullMessage) { // 整个回答完成 try { // 可以发送一个特殊事件标识结束或者直接complete emitter.send(SseEmitter.event() .data([DONE]) // 约定好的结束标识 .name(close)); emitter.complete(); } catch (IOException e) { // 忽略完成时的IO异常 } finally { emitters.remove(emitterId); } } Override public void onError(Throwable t) { // 处理错误 try { emitter.send(SseEmitter.event() .data(Error: t.getMessage()) .name(error)); emitter.completeWithError(t); } catch (IOException e) { // 忽略错误发送时的异常 } finally { emitters.remove(emitterId); } } }; // 构建请求并开始流式调用 Message message Message.of(prompt); ChatCompletion chatCompletion ChatCompletion.builder() .model(ChatCompletion.Model.GPT_3_5_TURBO.getName()) .messages(Arrays.asList(message)) .stream(true) // 必须设置为true .build(); // 异步执行避免阻塞当前线程 new Thread(() - { chatGPTStream.streamChatCompletion(chatCompletion, listener); }).start(); return emitter; } }对应的ControllerRestController RequestMapping(/api/chat) public class StreamChatController { Autowired private StreamChatService streamChatService; GetMapping(value /stream, produces MediaType.TEXT_EVENT_STREAM_VALUE) CrossOrigin // 处理跨域前端开发时需要 public SseEmitter streamChat(RequestParam String prompt, RequestParam(required false) String sessionId) { return streamChatService.createStreamChat(prompt, sessionId); } }前端可以使用EventSourceAPI 来接收这个流const eventSource new EventSource(/api/chat/stream?prompt${encodeURIComponent(讲个故事)}); let fullMessage ; eventSource.onmessage (event) { if (event.data [DONE]) { eventSource.close(); console.log(Stream finished. Full message:, fullMessage); } else { const chunk event.data; fullMessage chunk; // 实时更新UI比如追加到某个div document.getElementById(output).innerHTML chunk; } }; eventSource.onerror (error) { console.error(EventSource failed:, error); eventSource.close(); };4.2 实现一个天气查询的函数调用函数调用能让你的AI应用“活”起来。我们来实现一个经典的天气查询例子。假设我们有一个模拟的天气服务。首先定义我们的函数import com.alibaba.fastjson.JSONObject; import com.plexpt.chatgpt.entity.chat.ChatFunction; import java.util.Arrays; public class WeatherFunctions { public static ChatFunction getWeatherFunction() { ChatFunction function new ChatFunction(); function.setName(getCurrentWeather); function.setDescription(获取指定城市的当前天气信息); function.setParameters( ChatFunction.ChatParameter.builder() .type(object) .required(Arrays.asList(location)) .properties(JSONObject.parseObject( { location: { type: string, description: 城市名称例如北京、上海 }, unit: { type: string, enum: [celsius, fahrenheit], description: 温度单位摄氏度或华氏度, default: celsius } } )) .build() ); return function; } // 模拟的天气服务方法 public static String fetchWeather(String location, String unit) { // 这里应该是调用真实天气API如和风天气、OpenWeatherMap等 // 为了演示我们返回模拟数据 JSONObject weather new JSONObject(); weather.put(location, location); weather.put(temperature, unit.equals(celsius) ? 25 : 77); weather.put(unit, unit); weather.put(condition, 晴朗); weather.put(humidity, 65%); return weather.toJSONString(); } }然后创建一个处理函数调用的服务。这个过程比普通聊天多一轮交互import com.plexpt.chatgpt.ChatGPT; import com.plexpt.chatgpt.entity.chat.*; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Service; import java.util.ArrayList; import java.util.Arrays; import java.util.List; Service public class FunctionCallService { Autowired private ChatGPT chatGPT; public String chatWithFunction(String userQuery) { // 1. 准备函数列表 ListChatFunction functions new ArrayList(); functions.add(WeatherFunctions.getWeatherFunction()); // 可以添加更多函数... // 2. 第一轮用户提问AI可能决定调用函数 Message userMessage Message.of(userQuery); ChatCompletion firstRequest ChatCompletion.builder() .model(ChatCompletion.Model.GPT_3_5_TURBO_0613.getName()) // 使用支持函数调用的模型 .messages(Arrays.asList(userMessage)) .functions(functions) .build(); ChatCompletionResponse firstResponse chatGPT.chatCompletion(firstRequest); ChatChoice firstChoice firstResponse.getChoices().get(0); Message firstAiMessage firstChoice.getMessage(); // 3. 检查AI是否想调用函数 if (function_call.equals(firstChoice.getFinishReason())) { // AI要求调用函数 FunctionCallResult functionCall firstAiMessage.getFunctionCall(); String functionName functionCall.getName(); String arguments functionCall.getArguments(); // 4. 解析参数并执行本地函数 JSONObject argsJson JSONObject.parseObject(arguments); String location argsJson.getString(location); String unit argsJson.getString(unit); String functionResult ; if (getCurrentWeather.equals(functionName)) { functionResult WeatherFunctions.fetchWeather(location, unit); } // 处理其他函数... // 5. 将函数执行结果作为一条新消息再次发送给AI Message functionResultMessage Message.ofFunction(functionResult); functionResultMessage.setName(functionName); // 设置函数名很重要 // 第二轮请求包含原始问题、AI的函数调用请求、函数执行结果 ChatCompletion secondRequest ChatCompletion.builder() .model(ChatCompletion.Model.GPT_3_5_TURBO_0613.getName()) .messages(Arrays.asList(userMessage, firstAiMessage, functionResultMessage)) .functions(functions) // 这里可以继续带上函数列表如果后续可能还需要调用 .build(); ChatCompletionResponse secondResponse chatGPT.chatCompletion(secondRequest); // 这次AI应该会生成一个包含天气信息的自然语言回复 return secondResponse.getChoices().get(0).getMessage().getContent(); } else { // AI没有调用函数直接返回回复 return firstAiMessage.getContent(); } } }当你问“上海天气怎么样”时整个交互流程是你的服务将问题发给AI并告知它有一个getCurrentWeather函数可用。AI分析后发现需要调用这个函数来获取数据于是返回一个function_call响应包含了它“想调用”的函数名和参数{location: 上海, unit: celsius}。你的服务代码检测到这个响应解析参数并调用本地的fetchWeather方法或真正的天气API获取数据。将获取到的原始天气数据JSON格式作为函数执行结果连同之前的对话历史再次发给AI。AI收到天气数据后组织成一段友好的自然语言如“上海目前天气晴朗气温25摄氏度湿度65%。”返回给用户。这个过程完全自动化对用户来说是透明的他们只觉得AI“知道”天气。这就是函数调用的魅力所在。5. 生产环境部署的注意事项与避坑指南把Demo跑起来是一回事让它在生产环境稳定运行是另一回事。下面是我在实际部署中踩过的一些坑和总结的经验。5.1 网络与代理策略这是国内部署无法回避的问题。直接连接OpenAI API不稳定你有几个选择服务器全局代理在部署应用的服务器上配置系统代理或网络路由规则。这是最彻底的方式但可能受公司IT政策限制。反向代理这是我个人最推荐的方式。自己用Nginx或Caddy搭建一个反向代理或者使用可靠的第三方代理服务。将SDK中的apiHost指向这个代理地址。这样做的好处是配置集中只需在代码或配置文件中改一个地址。便于监控和日志可以在代理层统一记录所有请求和响应。灵活性高可以轻松切换代理后端或在代理层添加认证、限流等逻辑。客户端无感应用服务器本身不需要任何特殊网络配置。一个简单的Nginx反向代理配置示例server { listen 443 ssl; server_name your-proxy-domain.com; ssl_certificate /path/to/cert.pem; ssl_certificate_key /path/to/key.pem; location /v1/ { proxy_pass https://api.openai.com/v1/; proxy_set_header Host api.openai.com; proxy_set_header Authorization $http_authorization; # 传递API Key proxy_set_header Content-Type $http_content_type; # 其他必要的头部... proxy_connect_timeout 60s; proxy_read_timeout 600s; # 长文本生成可能需要较长时间 } }然后在Java配置中.apiHost(https://your-proxy-domain.com/)。5.2 性能、限流与多KEY管理OpenAI API有严格的速率限制RPM/TPM。单个Key很容易在用户量稍大时被限流。监控与告警务必监控API调用的响应状态码。429代表速率限制401是Key无效500是服务器错误。接到429时除了使用多KEY轮询还应该在代码中实现指数退避重试。多KEY轮询的增强策略SDK内置的轮询是基础的。在生产中你最好能动态管理Key池。例如从数据库或配置中心加载Key列表并记录每个Key的调用次数、失败情况。可以实现一个更智能的负载均衡器优先使用健康的、配额充足的Key并自动剔除频繁失败的Key。异步与非阻塞对于Web应用处理AI请求尤其是长文本生成可能是耗时的。务必确保你的Controller是异步的如使用Async、CompletableFuture或WebFlux避免阻塞Servlet容器线程影响应用整体吞吐量。流式接口SSE本身是非阻塞的是更好的选择。5.3 错误处理与日志记录健壮的错误处理是生产级应用的标志。try { ChatCompletionResponse response chatGPT.chatCompletion(request); // 处理成功响应 } catch (Exception e) { log.error(调用ChatGPT API失败请求参数: {}, JSON.toJSONString(request), e); // 细分错误类型 if (e instanceof HttpException) { HttpException httpEx (HttpException) e; int code httpEx.getCode(); if (code 429) { // 触发限流可以尝试换Key重试或告知用户稍后重试 throw new BusinessException(服务繁忙请稍后再试); } else if (code 401) { // API Key无效需要报警通知管理员更换Key alertService.sendAlert(ChatGPT API Key失效); throw new BusinessException(服务配置错误); } // ... 处理其他HTTP状态码 } // 其他异常如网络超时、JSON解析失败等 throw new BusinessException(智能服务暂时不可用请稍后重试); }日志要记录足够的信息用于排查但切记不要记录完整的API Key或包含大量用户隐私的对话内容。可以记录Key的前缀如sk-abc...和请求的元数据模型、token数等。5.4 安全与成本控制API Key安全永远不要将API Key硬编码在代码或提交到版本库。使用环境变量、配置服务器如Spring Cloud Config或云服务商提供的密钥管理服务如AWS KMS, GCP Secret Manager。用户输入检查对用户输入的prompt进行基本的检查防止过长的输入、恶意代码或提示词注入攻击。虽然SDK和API层有一定防护但应用层做一次过滤是好的实践。成本控制GPT-4系列模型非常昂贵。务必在服务层面实施用量控制和预算告警。可以通过在ChatCompletion中设置maxTokens来限制单次回复长度。记录每个用户、每个会话的token消耗并设置每日/每月限额。OpenAI后台也提供了用量监控和预算设置功能一定要去配置。5.5 上下文管理的持久化方案前面提到的ChatContextHolder是一个内存中的工具类不适合分布式部署或服务重启。一个实用的持久化方案是设计数据表创建conversation_session会话和conversation_message消息表。存储消息每次用户发送消息和收到AI回复后都将对应的Message对象序列化如转成JSON存入数据库并关联会话ID。读取上下文当用户发起新消息时根据会话ID从数据库中加载最近N条历史消息注意总token数不能超过模型上限比如4096。你可以使用SDK的ChatCompletionUtil.countTokens方法来估算token数并进行裁剪。裁剪策略当历史消息token数过多时可以采用“滑动窗口”策略只保留最近若干条或者更智能地尝试用一条系统消息来总结早期对话的要点从而保留更长的对话记忆。集成PlexPt/chatgpt-java到你的Java项目从简单的对话到复杂的流式、函数调用应用这个SDK都提供了坚实的支撑。关键在于理解其设计模式并根据自己的生产环境需求在它提供的基础能力之上构建网络、安全、性能、成本控制等全方位的保障体系。它帮你省去了底层通信的麻烦让你能更专注于业务逻辑和创新功能的实现。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2611085.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…