基于Python与aiogram构建多模型AI助手:集成GPT-4、Claude与Gemini的Telegram机器人开发实践

news2026/5/15 14:10:22
1. 项目概述一个多模型AI助手的自研之路最近在折腾一个挺有意思的玩意儿我把它叫做“AIAssistantBot”。简单来说这是一个跑在Telegram上的机器人但它不是那种只会回复固定指令的“傻”机器人。它的核心是整合了市面上几家主流的AI大模型比如OpenAI的GPT-4、Google的Gemini还有Anthropic的Claude系列。你可以把它想象成你的一个“超级AI助理”在Telegram里就能随时调用不同风格的AI大脑来帮你解决问题无论是写代码、解答疑问、翻译还是根据描述生成图片它都能干。我自己是个开发者平时在Telegram上跟团队沟通、查资料、写点代码片段是家常便饭。但经常需要在不同平台和应用间切换一会儿去ChatGPT网页一会儿开Claude效率很低。我就想能不能把这些能力都集成到一个我最常用的聊天工具里于是就有了这个项目。它本质上是一个基于Python和aiogram框架构建的异步机器人通过调用各家AI的API把强大的AI能力封装成Telegram里一个随叫随到的对话伙伴。这个项目特别适合那些想深入理解如何将现代AI服务与即时通讯平台结合或者想为自己或小团队打造一个私有、多功能AI助手的开发者。2. 核心架构与设计思路拆解2.1 为什么选择Telegram Bot作为载体首先得聊聊为什么选Telegram。市面上机器人平台很多微信、钉钉、Slack、Discord各有优劣。我选择Telegram Bot API主要是基于几个非常实际的考量。第一是开发友好性。Telegram Bot API的设计非常清晰、文档完善而且功能强大。它原生支持丰富的消息格式文本、Markdown、HTML、图片、文件、投票等、内联键盘Inline Keyboard和回复键盘Reply Keyboard这对于构建一个交互复杂的AI助手至关重要。比如我们可以轻松地创建按钮让用户一键切换AI模型或者用美观的格式展示带语法高亮的代码块。第二是跨平台与可访问性。Telegram客户端覆盖了几乎所有主流平台iOS, Android, Windows, macOS, Linux甚至Web用户在任何设备上都能获得一致的体验。这对于一个工具型机器人来说很重要你可以在电脑上让它生成代码然后在手机上查看结果。第三是隐私与可控性。虽然机器人运行在Telegram平台上但对话内容、用户数据的管理权完全掌握在我们自己部署的服务器上。我们可以决定日志存多久、是否加密而不必受制于某个封闭生态的审查规则。这对于处理可能包含敏感信息如代码片段、业务思路的对话来说心理上更踏实一些。第四是成本与生态。Telegram Bot API本身免费且有成熟的Python库如aiogram它基于asyncio能很好地处理高并发请求这对于一个可能需要同时服务多个用户的AI助手来说是基础要求。2.2 多模型集成的策略与考量项目最核心的特点就是支持多个AI模型。这不仅仅是简单地把几个API封装一下背后涉及到一些架构上的思考。为什么需要多模型因为没有一个模型是万能的。GPT-4在复杂逻辑推理和创造性写作上表现惊人Claude 3.5 Sonnet在长文本理解和分析上独树一帜Gemini Pro在常识问答和多轮对话的流畅性上可能更胜一筹而GPT-4o-mini或Claude Haiku则在响应速度和简单任务上性价比极高。给用户选择权意味着他们可以根据当前任务的性质是需要深度思考还是快速回答和预算不同模型API调用成本不同来灵活切换。架构上如何实现我采用了“抽象工厂”结合“策略模式”的思路。首先我定义了一个统一的AIModelClient抽象基类ABC它规定了所有AI模型客户端必须实现的方法比如async_generate_text(prompt: str, **kwargs) - str。然后为每个支持的模型OpenAI GPT系列、Google Gemini、Anthropic Claude创建具体的实现类如OpenAIClient、GeminiClient、AnthropicClient。这些类负责处理各自API的认证、请求格式、错误处理和响应解析。在机器人核心的对话处理器中我维护了一个模型客户端映射字典和一个记录用户当前所选模型的持久化存储比如用SQLite或Redis。当用户发送一条消息时处理器会根据用户ID找到其当前选择的模型客户端实例然后调用统一的生成方法。这样添加一个新的AI模型支持基本上就是新增一个实现了AIModelClient接口的类并在配置中注册一下核心业务逻辑几乎不用改动。关于API密钥管理这是安全的重中之重。所有API密钥绝不能硬编码在代码里。我使用python-dotenv库从.env文件加载环境变量。在部署时这些环境变量通过Docker secrets、服务器环境配置或云服务商提供的密钥管理服务如AWS Secrets Manager来设置。代码中只会通过os.getenv(OPENAI_API_KEY)这样的方式引用。2.3 技术栈选型解析Python 3.8: 这是AI生态的事实标准。丰富的库支持openai,google-generativeai,anthropic和asyncio异步编程模型对于需要同时处理多个网络IO请求的Bot来说再合适不过。aiogram 3.x: 这是当前开发Telegram Bot最强大、最现代的Python异步框架。相比老旧的python-telegram-botaiogram 3完全基于异步与asyncio生态无缝集成提供了更清晰的状态管理FSM和中间件系统代码结构可以组织得非常优雅。异步asyncio架构: AI API调用和Telegram消息收发都是网络IO密集型操作。使用异步可以避免在等待API响应时阻塞整个线程极大提升机器人的并发处理能力和响应速度。一个简单的await就能让服务器在等待一个用户AI回复的同时去处理另一个用户的消息发送。轻量级存储: 对于用户偏好当前模型、语言和简单的聊天统计一个本地SQLite数据库通常就足够了通过aiosqlite进行异步操作。如果预计用户量很大或需要分布式部署可以考虑换成Redis它同样有很好的异步客户端支持。日志与监控: 使用Python内置的logging模块配置好不同级别的日志输出INFO, ERROR并可以考虑集成Sentry或Loguru来更好地捕获和追踪运行时错误。注意在项目初期切忌过度设计。先从SQLite和文件配置开始验证核心功能。当用户量增长、需求明确后再考虑迁移到更专业的数据库和配置中心。过早引入复杂的微服务和消息队列只会增加维护负担。3. 核心功能模块深度解析3.1 对话管理与上下文保持一个AI助手如果只能进行单轮问答那价值就大打折扣。真正的智能体现在它能记住对话的上下文。实现这个功能有几个关键点。上下文窗口Context Window管理所有大模型都有输入令牌Token限制。你不能把整个聊天历史都无脑塞给API。我的策略是维护一个“对话会话”。当用户发起一个新话题通过/newtopic命令时创建一个空的会话列表。每次用户发送消息我将这条用户消息和当前会话历史最近的若干轮问答组合成一个结构化的提示Prompt发给AI。AI回复后再把这一轮完整的“用户消息-AI回复”对追加到会话历史列表中。这里有个内存优化技巧不能无限增长会话历史。我设置了一个最大令牌数或最大轮次限制例如只保留最近10轮对话。当历史超过限制时从最旧的开始移除。更高级的做法可以实现“摘要”功能当历史太长时调用AI对之前的对话内容生成一个简短摘要然后用摘要替代部分旧历史既能保留上下文脉络又能节省令牌。实现代码片段示例class ConversationSession: def __init__(self, user_id: int, max_history_turns: int 10): self.user_id user_id self.history [] # 列表项为 {role: user/assistant, content: ...} self.max_turns max_history_turns def add_interaction(self, user_message: str, assistant_reply: str): 添加一轮交互到历史 self.history.append({role: user, content: user_message}) self.history.append({role: assistant, content: assistant_reply}) # 修剪历史保持不超过最大轮次 if len(self.history) self.max_turns * 2: # 每轮包含user和assistant两条 self.history self.history[-(self.max_turns * 2):] def get_messages_for_api(self, new_user_message: str) - list: 为API调用准备消息列表通常以system message开头 messages [{role: system, content: You are a helpful AI assistant.}] messages.extend(self.history) messages.append({role: user, content: new_user_message}) return messages状态持久化用户关闭Telegram再打开应该还能继续上次的对话。这就需要把ConversationSession对象序列化后存储到数据库。我通常会把整个历史列表以JSON格式存入数据库的TEXT字段。当用户再次发起消息时先从数据库加载其会话历史再执行上述流程。3.2 消息处理与格式化代码高亮、长文分片Telegram和AI API对消息都有长度限制而且用户希望看到格式美观的回复尤其是代码。代码块与语法高亮AI模型回复的Markdown格式代码块python\n...需要被正确解析并转换成Telegram支持的格式。aiogram支持以ParseMode.MARKDOWN_V2或ParseMode.HTML发送消息。对于代码块Markdown V2模式是首选因为它能原生渲染等宽字体块。我的处理流程是在收到AI的文本回复后用正则表达式匹配出所有的language ... 块确保其格式正确然后直接以Markdown V2模式发送。Telegram客户端会自动将其渲染为带背景色的代码块。长消息分片Chunking这是必须处理的细节。Telegram对单条消息有4096个字符的长度限制。而AI特别是让它写分析报告或长篇文章时很容易超过这个限制。我的分片逻辑如下首先尝试按自然段落\n\n进行分割。如果某个段落本身就超过4000字符留点余量则按句子或固定长度如3900字符进行强制分割并确保不会在代码块中间或单词中间切断。在发送分片消息时为后续消息添加“续”之类的标识提升阅读连贯性。实现分片的注意事项分片时要特别注意Markdown或HTML标签的配对。不能在一个分片的开头留下一个未闭合的code标签而在下一个分片里才闭合这会导致渲染错误。一个稳妥的做法是在分片前将消息暂时转换为纯文本进行分割分割后再为每个分片重新应用简单的格式如仅保留粗体、斜体、等宽字体标识。对于复杂的代码块如果它超长最好将其作为一个独立的文件附件发送而不是分片成多个难以阅读的消息。3.3 图像生成功能的集成除了文本图像生成是另一个吸引人的功能。我通过集成OpenAI的DALL-E 3或Stable Diffusion的API如通过Replicate来实现/image命令。工作流程用户发送/image a beautiful sunset over mountains。机器人解析命令后的描述文本。调用图像生成API通常这是一个异步操作可能需要10-30秒。在等待期间机器人可以发送一个“正在生成请稍候...”的临时状态消息避免用户以为机器人没反应。API返回图像URL或二进制数据后使用aiogram的InputMediaPhoto将图片发送给用户。同时可以记录生成请求用于后续的用量统计或审核。安全与审核图像生成API可能被滥用。务必在调用前对用户输入的提示词Prompt进行基本的安全过滤屏蔽明显违规、暴力或成人内容的关键词。更好的做法是利用AI服务商提供的内容安全接口如OpenAI的Moderation API对提示词进行预检。此外对于公开群组中的机器人这个功能可能需要限制或关闭。4. 详细配置与部署实操指南4.1 环境准备与依赖安装假设你已经在本地或一台云服务器如Ubuntu 22.04上准备好了Python环境。获取项目代码git clone https://github.com/tr3bleee/AIAssistantBot.git cd AIAssistantBot创建虚拟环境强烈推荐python -m venv venv # 在Linux/macOS上激活 source venv/bin/activate # 在Windows上激活 .\venv\Scripts\activate安装依赖项目根目录下应该有一个requirements.txt文件。pip install -r requirements.txt典型的requirements.txt内容会包括aiogram3.15.0 openai1.0.0 google-generativeai0.3.0 anthropic0.25.0 python-dotenv1.0.0 aiosqlite0.19.0 # 用于异步SQLite操作 httpx0.25.0 # 异步HTTP客户端某些SDK依赖4.2 申请与配置API密钥这是最关键的一步你需要准备“弹药”。Telegram Bot Token在Telegram中搜索BotFather并对话。发送/newbot指令按提示设置机器人名字和用户名必须以bot结尾。创建成功后BotFather会给你一个长字符串形如1234567890:ABCdefGHIjklMnOprSTUvWxyZ-abc123def。这就是你的BOT_TOKEN务必保管好。OpenAI API Key访问 OpenAI平台 注册/登录。在API Keys页面点击“Create new secret key”。复制保存好这个密钥。注意OpenAI的API是付费的新账号有免费额度但需绑定支付方式。Google Gemini API Key访问 Google AI Studio 。登录你的Google账号在“Get API key”页面创建密钥。Gemini API目前截至我知识截止日期有免费的调用额度。Anthropic Claude API Key访问 Anthropic控制台 。注册登录后在“Get API Keys”部分创建密钥。Claude API同样需要付费但有免费试用额度。4.3 配置文件与环境变量在项目根目录创建.env文件这是存储敏感配置的标准方式。切记要将.env添加到.gitignore中避免密钥泄露。.env文件内容示例# Telegram Bot Configuration BOT_TOKEN你的Telegram_Bot_Token # AI Service API Keys OPENAI_API_KEY你的OpenAI_API_Key GEMINI_API_KEY你的Google_Gemini_API_Key ANTHROPIC_API_KEY你的Anthropic_API_Key # Optional: Database path, Log level, Proxy etc. # DATABASE_URLsqliteaiosqlite:///./data/bot_data.db # LOG_LEVELINFO # HTTP_PROXYhttp://your-proxy:port # 如果你的服务器需要代理访问外部API在Python代码中通过os.getenv读取import os from dotenv import load_dotenv load_dotenv() # 加载.env文件中的变量到环境变量 BOT_TOKEN os.getenv(BOT_TOKEN) OPENAI_API_KEY os.getenv(OPENAI_API_KEY) # ... 其他密钥 if not all([BOT_TOKEN, OPENAI_API_KEY]): raise ValueError(Missing required environment variables. Please check your .env file.)4.4 数据库初始化与用户状态管理我们需要一个地方来存用户设置和对话历史。这里用aiosqlite操作SQLite举例。创建数据库连接与表结构# database.py import aiosqlite import json from typing import Optional, Dict, Any class Database: def __init__(self, db_path: str ./data/bot_data.db): self.db_path db_path async def init_db(self): 初始化数据库表 async with aiosqlite.connect(self.db_path) as db: await db.execute( CREATE TABLE IF NOT EXISTS users ( user_id INTEGER PRIMARY KEY, current_model TEXT DEFAULT gpt-4, interface_language TEXT DEFAULT en, conversation_history TEXT DEFAULT [], -- JSON格式存储历史 created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP ) ) await db.execute( CREATE TABLE IF NOT EXISTS chat_stats ( id INTEGER PRIMARY KEY AUTOINCREMENT, user_id INTEGER, model_used TEXT, tokens_used INTEGER DEFAULT 0, request_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP, FOREIGN KEY (user_id) REFERENCES users (user_id) ) ) await db.commit() async def get_user_settings(self, user_id: int) - Optional[Dict[str, Any]]: 获取用户设置 async with aiosqlite.connect(self.db_path) as db: async with db.execute(SELECT current_model, interface_language, conversation_history FROM users WHERE user_id ?, (user_id,)) as cursor: row await cursor.fetchone() if row: return { current_model: row[0], interface_language: row[1], conversation_history: json.loads(row[2]) if row[2] else [] } return None async def update_user_model(self, user_id: int, model: str): 更新用户选择的模型 async with aiosqlite.connect(self.db_path) as db: # 使用INSERT OR REPLACE简化“存在则更新不存在则插入”的逻辑 await db.execute( INSERT INTO users (user_id, current_model) VALUES (?, ?) ON CONFLICT(user_id) DO UPDATE SET current_model excluded.current_model , (user_id, model)) await db.commit() # ... 其他增删改查方法在Bot启动时初始化数据库# main.py async def on_startup(dp): 启动时运行 db Database() await db.init_db() print(Database initialized.) # 其他初始化操作... if __name__ __main__: executor.start_polling(dp, on_startupon_startup)4.5 核心机器人逻辑实现这里是aiogram处理程序的核心部分。我们以实现/model命令和普通消息处理为例。# handlers.py from aiogram import Router, F from aiogram.types import Message, CallbackQuery from aiogram.filters import Command from aiogram.fsm.context import FSMContext from aiogram.fsm.state import State, StatesGroup from keyboards import model_selection_keyboard # 假设有一个内联键盘生成函数 from services import AIModelService, Database # 假设的AI服务和数据库类 router Router() class ModelStates(StatesGroup): 状态管理用于多步骤交互如果需要 waiting_for_prompt State() router.message(Command(model)) async def cmd_model(message: Message): 处理 /model 命令显示模型选择键盘 keyboard model_selection_keyboard() # 生成一个内联键盘按钮对应各个模型 await message.answer(请选择你想要使用的AI模型, reply_markupkeyboard) router.callback_query(F.data.startswith(model_)) async def process_model_selection(callback: CallbackQuery, db: Database): 处理模型选择回调 selected_model callback.data.split(_)[1] # 例如 datamodel_gpt-4 user_id callback.from_user.id # 更新数据库 await db.update_user_model(user_id, selected_model) # 回复用户 await callback.answer(f模型已切换至 {selected_model}。) await callback.message.edit_text(f✅ 当前AI模型已设置为**{selected_model}**) router.message() async def handle_regular_message(message: Message, db: Database, ai_service: AIModelService): 处理用户发送的普通文本消息即对话 user_id message.from_user.id user_text message.text if not user_text or user_text.startswith(/): return # 忽略空消息或命令命令由其他处理器处理 # 1. 获取用户当前设置和对话历史 settings await db.get_user_settings(user_id) if not settings: # 新用户初始化默认设置 settings {current_model: gpt-4, conversation_history: []} # ... 保存到数据库 current_model settings[current_model] conversation_history settings[conversation_history] # 2. 发送“正在思考”提示可选提升体验 thinking_msg await message.reply( AI正在思考...) try: # 3. 调用AI服务生成回复 full_response, updated_history await ai_service.generate_response( user_iduser_id, user_messageuser_text, historyconversation_history, model_namecurrent_model ) # 4. 更新数据库中的对话历史 await db.update_conversation_history(user_id, updated_history) # 5. 记录使用统计可选 await db.log_chat_statistic(user_id, current_model, tokens_used...) # 6. 删除“正在思考”消息并发送AI回复 await thinking_msg.delete() # 注意这里需要处理长消息分片 await send_long_message(message.chat.id, full_response) except Exception as e: # 7. 错误处理 await thinking_msg.delete() await message.reply(f抱歉处理您的请求时出错了{str(e)}) # 记录错误日志 logger.error(fError processing message from {user_id}: {e}) async def send_long_message(chat_id: int, text: str): 处理长消息分片发送的辅助函数 # 这里实现上文提到的分片逻辑 # 可能是按段落分割然后循环发送 pass4.6 运行与部署本地开发运行python main.py你的Bot就应该上线了。去Telegram里找到你的机器人发送/start试试。生产环境部署 对于7x24小时运行建议使用进程管理工具。使用systemdLinux创建一个服务文件/etc/systemd/system/ai-assistant-bot.service。[Unit] DescriptionAI Assistant Telegram Bot Afternetwork.target [Service] Typesimple Useryour_username WorkingDirectory/path/to/AIAssistantBot EnvironmentPATH/path/to/venv/bin ExecStart/path/to/venv/bin/python main.py Restartalways RestartSec10 [Install] WantedBymulti-user.target然后启用并启动服务sudo systemctl daemon-reload sudo systemctl enable ai-assistant-bot sudo systemctl start ai-assistant-bot sudo systemctl status ai-assistant-bot # 查看状态使用Docker更推荐编写Dockerfile和docker-compose.yml将应用容器化。这样可以更好地隔离环境方便迁移和扩展。# Dockerfile FROM python:3.11-slim WORKDIR /app COPY requirements.txt . RUN pip install --no-cache-dir -r requirements.txt COPY . . CMD [python, main.py]使用docker-compose up -d运行。5. 常见问题与排查技巧实录在实际开发和运维中你肯定会遇到各种坑。下面是我踩过的一些以及解决办法。5.1 网络与API连接问题问题现象可能原因排查与解决Bot启动后收不到任何消息或发送消息超时。1.BOT_TOKEN错误。2. 服务器网络无法访问Telegram API某些地区或网络环境。3. Bot被用户禁用或未启动。1. 仔细核对BOT_TOKEN确保没有多余空格。2. 在服务器上尝试curl https://api.telegram.org看是否连通。如果不行可能需要配置网络代理。在aiogram中可以通过设置proxy参数为Bot指定代理。3. 在Telegram中搜索你的Bot点击/start。确保Bot没有被停止。AI API调用频繁超时或返回连接错误。1. 本地/服务器到AI服务商网络不稳定。2. API密钥无效或过期。3. 触发了API的速率限制Rate Limit。1. 使用ping或traceroute测试到API域名的连通性。考虑使用重试机制和更长的超时设置。2. 去对应平台检查API密钥状态、余额和是否启用。3. 查看API返回的错误信息。实现指数退避重试逻辑并监控调用频率。OpenAI、Anthropic等都有每分钟/每天的请求和令牌限制。错误信息aiogram.exceptions.TelegramAPIError: Bad Request: message is too long发送的消息长度超过了Telegram的单条消息限制4096字符。实现并完善上文提到的**长消息分片Chunking**功能。确保分片逻辑能正确处理Markdown格式避免因格式错乱导致消息无法发送。5.2 功能逻辑与用户体验问题问题现象可能原因排查与解决用户切换模型后上下文历史混乱或丢失。不同模型的上下文格式或处理方式可能不同切换时历史未正确转换或清空。我的做法是切换模型时自动清空当前对话历史。因为不同模型的提示词格式、对历史的理解能力有差异强行混用可能导致输出质量下降或API错误。在/model命令处理函数中除了更新数据库的current_model字段同时将conversation_history重置为空列表。并明确提示用户“已切换至XX模型新对话已开始。”代码块在Telegram中显示不正常没有高亮。1. 发送消息时未设置正确的parse_mode。2. 代码块中的反引号或语言标识符格式错误。3. 消息中包含Telegram Markdown V2不支持的转义字符。1. 确保发送消息时指定了parse_modeParseMode.MARKDOWN_V2。2. 检查AI返回的文本确保代码块是python\ncode\n\格式且语言标识符正确。br3. Telegram Markdown V2中以下字符需要转义_, *, [, ], (, ), ~,,,#,,-,,机器人响应越来越慢数据库操作卡顿。1. 用户或对话历史数据量增大SQLite查询变慢。2. 未使用异步数据库驱动阻塞了事件循环。1. 为users表的user_id字段创建索引CREATE INDEX idx_user_id ON users(user_id);。2.绝对确保使用异步数据库库如aiosqlite、asyncpg对于PostgreSQL。同步库如sqlite3会阻塞整个异步事件循环导致机器人完全卡死。检查你的requirements.txt和导入语句。/image命令生成图片失败或返回内容违规。1. 图像生成API调用失败网络、额度、参数。2. 用户提示词触发了内容安全策略。1. 在调用图像API的代码周围添加详细的异常捕获和日志记录错误响应。2.务必在服务器端对用户输入的提示词进行过滤。可以维护一个敏感词列表或者更可靠地调用OpenAI的Moderation API等免费工具进行预审。如果提示词违规直接拒绝请求并告知用户。5.3 性能与优化心得异步上下文管理使用async with来管理数据库连接、HTTP会话等资源确保它们被正确关闭避免资源泄漏。适度缓存对于不常变化的数据如可用的模型列表、语言包可以缓存在内存中如使用functools.lru_cache减少数据库查询。监控与日志从一开始就集成结构化日志如使用structlog或配置好的logging。记录关键事件用户请求、模型调用、响应时间、错误。这将是后期排查问题的唯一依据。成本控制多模型意味着多份API账单。可以在数据库中记录每个用户、每个模型使用的令牌数并设置每日/每月使用上限。对于公开的Bot这是防止被滥用的必要措施。代码结构保持代码模块化。将Telegram处理器、AI服务层、数据访问层、工具函数分开。这样当你想把机器人从Telegram迁移到Discord或者更换AI服务提供商时会轻松得多。这个项目从构想到实现是一个典型的全栈式应用开发过程涉及了API集成、异步编程、状态管理、数据持久化和基础运维。最大的收获不是写出了一个能用的Bot而是在解决一个个具体问题比如消息分片、上下文管理、错误处理的过程中对系统设计有了更深的体会。如果你也正在构建类似的东西希望这些踩坑经验能帮你少走些弯路。记住从最简单的、能跑通的版本开始然后逐步添加功能、优化体验、加固系统这才是可持续的开发节奏。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2606918.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…