Qwen-Image-2512与LangChain集成:自然语言处理与图像生成

news2026/3/14 17:59:05
Qwen-Image-2512与LangChain集成自然语言处理与图像生成最近在折腾一个项目需要把文字描述自动转成图片而且对图片质量要求还挺高。试了几个方案要么生成效果太“AI”一眼假要么流程太复杂集成起来头疼。后来发现阿里开源的Qwen-Image-2512效果不错特别是人物真实感和细节处理上比之前的版本提升很明显。但光有图像生成模型还不够实际应用中我们往往需要根据复杂的文本内容来生成图片这时候就需要自然语言处理的能力。LangChain正好能帮我们解决这个问题——它能把复杂的文本处理流程串联起来让AI理解我们的意图然后驱动图像生成。这篇文章就聊聊怎么把Qwen-Image-2512和LangChain结合起来用。我会用一个实际的例子展示从一段复杂的文本描述到生成高质量图片的完整流程。如果你也在做类似的项目或者想了解怎么把大语言模型和图像生成模型结合起来用这篇文章应该能给你一些参考。1. 为什么要把Qwen-Image-2512和LangChain结合起来先说说我为什么要折腾这个组合。在实际项目中用户的需求往往不是简单的“生成一张猫的图片”而是更复杂的描述比如“生成一张温馨的家庭晚餐场景餐桌上摆着丰盛的食物家人们围坐在一起窗外是城市的夜景整体氛围要温暖、有生活气息。”这种复杂的描述直接扔给图像生成模型效果往往不太理想。因为模型可能抓不住重点或者理解错了某些细节。这时候就需要先用自然语言处理模型来“翻译”一下——把复杂的用户需求拆解成图像生成模型能更好理解的提示词。LangChain在这方面特别擅长。它就像一个智能的流程编排器可以把多个AI模型串联起来让它们协同工作。比如我们可以先用大语言模型分析用户的文本描述提取关键元素、确定风格、优化提示词然后再把优化后的提示词交给Qwen-Image-2512去生成图片。这样做有几个好处效果更好经过优化的提示词能让图像生成模型更准确地理解我们的意图生成更符合预期的图片。流程更智能我们可以设计复杂的处理逻辑比如先判断用户的需求类型再选择不同的生成策略或者根据反馈自动调整提示词。扩展性更强LangChain的模块化设计让我们可以很方便地替换或添加新的组件。比如今天用Qwen-Image-2512明天想试试其他模型改起来也很容易。2. 环境准备与快速部署在开始之前我们需要准备好运行环境。这里假设你已经有了基本的Python开发环境如果没有建议先安装Python 3.8或以上版本。2.1 安装必要的Python包打开终端创建一个新的虚拟环境可选但推荐然后安装需要的包# 创建虚拟环境可选 python -m venv qwen_langchain_env source qwen_langchain_env/bin/activate # Linux/Mac # 或者 # qwen_langchain_env\Scripts\activate # Windows # 安装核心依赖 pip install langchain langchain-community pip install transformers torch pip install pillow requests如果你打算使用本地部署的Qwen-Image-2512还需要安装相关的图像生成库。不过在实际应用中我更推荐使用API方式调用这样部署和维护起来都更简单。2.2 获取API访问权限Qwen-Image-2512可以通过阿里云的百炼平台调用也可以使用一些第三方平台提供的API服务。这里以其中一个平台为例展示如何设置API访问import os # 设置API密钥请替换成你自己的 os.environ[QWEN_API_KEY] your_api_key_here os.environ[QWEN_BASE_URL] https://api.example.com/v1 # API端点如果你还没有API密钥可以到相关平台注册申请。通常会有一定的免费额度足够我们测试和开发使用。2.3 验证环境是否正常写个简单的测试脚本确保一切都能正常工作import requests import json def test_api_connection(): 测试API连接是否正常 headers { Authorization: fBearer {os.environ[QWEN_API_KEY]}, Content-Type: application/json } # 简单的文本生成测试 data { model: qwen-turbo, messages: [{role: user, content: 你好}], max_tokens: 10 } try: response requests.post( f{os.environ[QWEN_BASE_URL]}/chat/completions, headersheaders, jsondata ) if response.status_code 200: print( API连接正常) return True else: print(f API连接失败: {response.status_code}) return False except Exception as e: print(f 连接异常: {e}) return False if __name__ __main__: test_api_connection()运行这个脚本如果看到“API连接正常”的输出说明环境配置没问题可以继续往下走了。3. 构建基础的文本到图像生成链现在我们来构建第一个简单的LangChain链实现最基本的文本到图像生成功能。这个链会直接接收用户的文本描述然后调用Qwen-Image-2512生成图片。3.1 创建图像生成工具首先我们需要创建一个专门用于调用Qwen-Image-2512的工具。这个工具负责处理与图像生成API的通信from langchain.tools import BaseTool from typing import Type, Optional from pydantic import BaseModel, Field import base64 from io import BytesIO from PIL import Image class ImageGenerationInput(BaseModel): 图像生成工具的输入参数 prompt: str Field(description用于生成图像的文本描述) negative_prompt: Optional[str] Field( defaultNone, description不希望出现在图像中的内容 ) width: int Field(default1024, description图像宽度) height: int Field(default1024, description图像高度) num_inference_steps: int Field(default50, description推理步数) class QwenImageTool(BaseTool): Qwen-Image-2512图像生成工具 name: str qwen_image_generator description: str 使用Qwen-Image-2512模型根据文本描述生成图像 args_schema: Type[BaseModel] ImageGenerationInput def _run(self, prompt: str, **kwargs) - str: 执行图像生成 # 构建API请求 request_data { model: qwen-image-2512, prompt: prompt, **kwargs } # 调用API headers { Authorization: fBearer {os.environ[QWEN_API_KEY]}, Content-Type: application/json } try: response requests.post( f{os.environ[QWEN_BASE_URL]}/images/generations, headersheaders, jsonrequest_data, timeout60 ) if response.status_code 200: result response.json() # 假设API返回base64编码的图像数据 image_data result[data][0][b64_json] # 解码并保存图像 image_bytes base64.b64decode(image_data) image Image.open(BytesIO(image_bytes)) # 保存到本地文件 timestamp datetime.now().strftime(%Y%m%d_%H%M%S) filename fgenerated_image_{timestamp}.png image.save(filename) return f图像已生成并保存为: {filename} else: return f图像生成失败: {response.text} except Exception as e: return f调用API时发生错误: {str(e)} async def _arun(self, *args, **kwargs): 异步版本暂时用同步方式实现 return self._run(*args, **kwargs)这个工具封装了图像生成的细节我们只需要提供文本描述它就会调用API生成图片并保存到本地。3.2 创建简单的LangChain链有了工具之后我们可以创建一个简单的链让用户通过自然语言来生成图片from langchain.agents import initialize_agent, AgentType from langchain.chat_models import ChatOpenAI from langchain.memory import ConversationBufferMemory def create_simple_image_chain(): 创建简单的图像生成链 # 初始化大语言模型这里用OpenAI的模型作为示例 llm ChatOpenAI( modelgpt-3.5-turbo, temperature0.7, openai_api_keyos.environ.get(OPENAI_API_KEY) ) # 创建工具列表 tools [QwenImageTool()] # 创建记忆支持多轮对话 memory ConversationBufferMemory( memory_keychat_history, return_messagesTrue ) # 初始化智能体 agent initialize_agent( toolstools, llmllm, agentAgentType.CHAT_CONVERSATIONAL_REACT_DESCRIPTION, memorymemory, verboseTrue # 设置为True可以看到详细的思考过程 ) return agent # 使用示例 def simple_generation_example(): 简单生成示例 agent create_simple_image_chain() # 第一次生成 result1 agent.run(生成一张日式庭院风格的图片要有石灯笼和锦鲤池塘) print(f第一次生成结果: {result1}) # 基于对话的第二次生成 result2 agent.run(刚才的图片很好但能不能把锦鲤换成红色的再多加几棵樱花树) print(f第二次生成结果: {result2})这个简单的链已经能实现基本的功能了。用户用自然语言描述想要的图片链会调用工具生成图像。而且因为有记忆功能用户可以在对话中基于之前的图片提出修改要求。4. 进阶智能提示词优化链在实际使用中我发现直接使用用户的原始描述生成图片效果往往不够理想。用户的描述可能太笼统或者包含一些图像生成模型不擅长处理的元素。这时候就需要对提示词进行优化。4.1 设计提示词优化策略我们可以设计一个专门的提示词优化链它负责分析用户意图理解用户真正想要的是什么提取关键元素识别描述中的核心要素优化表达方式用图像生成模型更容易理解的方式重写提示词添加风格指导根据需求添加艺术风格、画质等参数from langchain.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate from langchain.chains import LLMChain class PromptOptimizer: 提示词优化器 def __init__(self, llm): self.llm llm self.setup_chains() def setup_chains(self): 设置优化链 # 系统提示词模板 system_template 你是一个专业的图像生成提示词优化专家。 你的任务是将用户的自然语言描述优化为适合图像生成模型的提示词。 优化原则 1. 保持用户的核心意图不变 2. 使用图像生成模型容易理解的词汇和结构 3. 添加适当的风格描述如写实风格、动漫风格、油画风格等 4. 包含画质要求如高清、4K、细节丰富 5. 避免模糊和矛盾的描述 请用英文输出优化后的提示词因为大多数图像生成模型对英文理解更好。 system_prompt SystemMessagePromptTemplate.from_template(system_template) # 人类输入模板 human_template 用户描述{user_input} human_prompt HumanMessagePromptTemplate.from_template(human_template) # 创建聊天提示词 chat_prompt ChatPromptTemplate.from_messages([system_prompt, human_prompt]) # 创建LLM链 self.optimization_chain LLMChain( llmself.llm, promptchat_prompt, output_keyoptimized_prompt ) def optimize(self, user_input: str) - str: 优化用户输入 result self.optimization_chain.run(user_inputuser_input) return result.strip() # 使用示例 def test_prompt_optimization(): 测试提示词优化 llm ChatOpenAI(modelgpt-3.5-turbo, temperature0.3) optimizer PromptOptimizer(llm) test_inputs [ 我想要一张猫的图片, 生成一个未来城市的夜景要有飞行汽车和霓虹灯, 画一个中国古典风格的花园有亭子和荷花池 ] for user_input in test_inputs: print(f\n原始描述: {user_input}) optimized optimizer.optimize(user_input) print(f优化后: {optimized})运行这个测试你会看到优化后的提示词更加详细和专业包含了风格、画质等额外信息这样生成的图片质量会更好。4.2 构建完整的智能图像生成链现在我们把提示词优化和图像生成结合起来创建一个更智能的链from langchain.chains import SequentialChain class SmartImageGenerationChain: 智能图像生成链 def __init__(self): self.setup_chains() def setup_chains(self): 设置所有子链 # 初始化LLM self.llm ChatOpenAI( modelgpt-3.5-turbo, temperature0.3 ) # 创建提示词优化器 self.optimizer PromptOptimizer(self.llm) # 创建图像生成工具 self.image_tool QwenImageTool() # 创建结果分析链可选 self.setup_analysis_chain() def setup_analysis_chain(self): 设置结果分析链 analysis_template 你收到了图像生成的结果{generation_result} 请分析 1. 生成是否成功 2. 如果成功生成的图像有什么特点 3. 如果失败可能的原因是什么 4. 对用户有什么建议 用友好的语气回复用户。 analysis_prompt ChatPromptTemplate.from_template(analysis_template) self.analysis_chain LLMChain( llmself.llm, promptanalysis_prompt, output_keyanalysis ) def generate(self, user_input: str) - dict: 执行智能图像生成 print(f 用户输入: {user_input}) # 步骤1优化提示词 print( 正在优化提示词...) optimized_prompt self.optimizer.optimize(user_input) print(f 优化后的提示词: {optimized_prompt}) # 步骤2生成图像 print( 正在生成图像...) generation_result self.image_tool.run( promptoptimized_prompt, width1024, height1024 ) print(f 生成结果: {generation_result}) # 步骤3分析结果 print( 正在分析结果...) analysis self.analysis_chain.run(generation_resultgeneration_result) return { user_input: user_input, optimized_prompt: optimized_prompt, generation_result: generation_result, analysis: analysis } # 使用示例 def smart_generation_example(): 智能生成示例 chain SmartImageGenerationChain() # 测试不同的输入 test_cases [ 帮我生成一张适合做手机壁纸的星空图片, 想要一张卡通风格的熊猫吃竹子的图片, 生成一个赛博朋克风格的城市街景下雨的夜晚 ] for test_input in test_cases: print(\n *50) result chain.generate(test_input) print(f\n 最终分析:\n{result[analysis]}) print(*50)这个智能链包含了完整的处理流程优化提示词、生成图像、分析结果。每一步都有清晰的输出方便我们调试和优化。5. 实际应用场景示例理论讲得差不多了现在来看几个实际的应用场景。这些例子都来自真实的项目需求你可以参考这些思路来设计自己的应用。5.1 电商商品图自动生成电商平台经常需要为商品生成展示图片。传统方式需要摄影师拍摄、设计师修图成本高、周期长。我们可以用Qwen-Image-2512和LangChain来实现自动化。class EcommerceImageGenerator: 电商商品图生成器 def __init__(self): self.chain SmartImageGenerationChain() # 商品类别到风格的映射 self.style_mapping { 服装: 专业摄影纯色背景细节清晰, 电子产品: 科技感简洁设计光影效果, 食品: 食欲感自然光新鲜诱人, 家居: 温馨氛围生活场景舒适感 } def generate_product_image(self, product_info: dict) - dict: 生成商品图片 # 构建详细的描述 category product_info.get(category, 通用) style_hint self.style_mapping.get(category, 高质量专业摄影) user_input f 生成商品展示图片 商品名称{product_info[name]} 商品描述{product_info[description]} 目标客户{product_info.get(target_audience, 普通消费者)} 风格要求{style_hint} 特别要求{product_info.get(special_requirements, 无)} # 使用智能链生成 result self.chain.generate(user_input) # 添加业务逻辑处理 result[product_id] product_info.get(id, unknown) result[category] category return result # 使用示例 def ecommerce_example(): 电商示例 generator EcommerceImageGenerator() # 测试商品1服装 product1 { id: P001, name: 男士休闲衬衫, category: 服装, description: 纯棉材质简约设计适合日常穿着, target_audience: 25-35岁男性, special_requirements: 需要展示面料细节和版型 } # 测试商品2电子产品 product2 { id: P002, name: 无线蓝牙耳机, category: 电子产品, description: 主动降噪长续航便携设计, target_audience: 科技爱好者 } print(生成商品1图片...) result1 generator.generate_product_image(product1) print(f商品1生成结果: {result1[generation_result]}) print(\n生成商品2图片...) result2 generator.generate_product_image(product2) print(f商品2生成结果: {result2[generation_result]})这个示例展示了如何根据商品信息自动生成展示图片。通过预定义的风格映射不同类别的商品会采用不同的生成策略确保图片符合行业标准。5.2 内容创作配图生成对于内容创作者来说为文章、博客配图是个耗时的工作。我们可以用这个技术来自动生成配图。class ContentIllustrationGenerator: 内容配图生成器 def __init__(self): self.chain SmartImageGenerationChain() def generate_for_paragraph(self, paragraph: str, style: str 通用) - dict: 为段落生成配图 # 提取段落关键信息 summary_prompt f 请用一句话总结以下段落的核心内容用于生成配图 段落{paragraph} 总结要求 1. 不超过20个字 2. 突出视觉元素 3. 适合图像生成 # 这里可以添加一个总结链为了简化示例我们直接使用段落前50个字 if len(paragraph) 50: summary paragraph[:50] ... else: summary paragraph # 根据风格调整提示词 style_prompts { 科技: 科技感简洁现代设计, 教育: 清晰易懂有教育意义, 娱乐: 有趣吸引眼球色彩丰富, 商业: 专业正式有说服力 } style_hint style_prompts.get(style, 美观相关高质量) user_input f 为以下内容生成配图 内容摘要{summary} 配图风格{style_hint} 图片用途文章配图 要求图片要与内容相关但不直接包含文字内容 return self.chain.generate(user_input) # 使用示例 def content_creation_example(): 内容创作示例 generator ContentIllustrationGenerator() # 测试段落 paragraphs [ { text: 人工智能正在改变我们的工作方式。从自动化重复性任务到辅助复杂决策AI技术已经在各个行业展现出巨大潜力。未来人机协作将成为主流工作模式。, style: 科技 }, { text: 学习编程就像学习一门新语言。开始时可能会觉得困难但通过持续练习和实际项目你会逐渐掌握编程思维并能够用代码解决实际问题。, style: 教育 } ] for i, para in enumerate(paragraphs, 1): print(f\n生成第{i}段配图...) result generator.generate_for_paragraph(para[text], para[style]) print(f生成结果: {result[generation_result]}) print(f优化后的提示词: {result[optimized_prompt][:100]}...)这个示例展示了如何根据文章内容自动生成配图。通过分析段落内容提取关键信息然后生成相关的图片大大提高了内容创作的效率。5.3 多轮对话图像编辑有时候用户不是一次描述清楚所有需求而是通过多轮对话逐步完善。LangChain的记忆功能正好能支持这种场景。class ConversationalImageEditor: 对话式图像编辑器 def __init__(self): # 使用带记忆的智能体 self.llm ChatOpenAI(modelgpt-3.5-turbo, temperature0.3) self.image_tool QwenImageTool() # 创建带记忆的智能体 self.memory ConversationBufferMemory( memory_keychat_history, return_messagesTrue ) tools [self.image_tool] self.agent initialize_agent( toolstools, llmself.llm, agentAgentType.CHAT_CONVERSATIONAL_REACT_DESCRIPTION, memoryself.memory, verboseFalse ) # 记录生成历史 self.generation_history [] def chat(self, user_message: str) - str: 处理用户消息 # 检查是否是编辑请求 if self.is_edit_request(user_message) and self.generation_history: # 基于历史进行编辑 return self.handle_edit_request(user_message) else: # 新的生成请求 response self.agent.run(user_message) self.generation_history.append({ user_input: user_message, response: response }) return response def is_edit_request(self, message: str) - bool: 判断是否是编辑请求 edit_keywords [修改, 调整, 改变, 换成, 添加, 删除, 更, 再] return any(keyword in message for keyword in edit_keywords) def handle_edit_request(self, edit_instruction: str) - str: 处理编辑请求 if not self.generation_history: return 没有找到之前的生成记录请先生成一张图片。 # 获取最近一次生成的信息 last_generation self.generation_history[-1] # 构建新的提示词这里简化处理实际可以更智能 new_prompt f基于之前的图片{edit_instruction} # 使用智能体处理 response self.agent.run(new_prompt) self.generation_history.append({ user_input: edit_instruction, response: response, based_on: last_generation[user_input] }) return response # 使用示例 def conversational_editing_example(): 对话式编辑示例 editor ConversationalImageEditor() # 对话流程 conversations [ 生成一张森林里的小木屋图片, 很好但能不能让木屋看起来更温馨一些加上烟囱和炊烟, 再添加一些秋天的元素比如落叶和橙色的树木, 把场景改成夜晚木屋里有温暖的灯光从窗户透出来 ] for i, message in enumerate(conversations, 1): print(f\n 用户[{i}]: {message}) response editor.chat(message) print(f 助手: {response}) print(f\n 生成历史: {len(editor.generation_history)} 次生成)这个示例展示了如何通过多轮对话来逐步完善图像。用户可以先生成一个基础版本然后通过对话不断调整和优化直到满意为止。6. 优化建议与最佳实践在实际使用中我总结了一些优化建议和最佳实践分享给大家6.1 提示词优化技巧具体化描述避免使用模糊的词汇。比如“一张好看的风景图”可以优化为“日落时分的山脉风景金色阳光洒在雪峰上天空有粉红色的云彩”。添加风格指引明确指定艺术风格。Qwen-Image-2512支持多种风格如“写实风格”、“动漫风格”、“油画风格”、“水彩风格”等。控制画质参数在提示词中添加画质要求如“4K分辨率”、“细节丰富”、“高清画质”。使用负面提示词指定不希望出现的内容如“避免文字水印”、“不要模糊”、“不要变形的人体”。6.2 性能优化建议缓存优化结果对于常见的提示词可以缓存优化后的结果避免重复调用大语言模型。批量处理如果需要生成大量图片可以考虑批量处理减少API调用开销。错误重试机制网络不稳定或API限流时实现自动重试机制。监控与日志记录每次生成的详细信息便于分析和优化。6.3 成本控制选择合适的模型根据需求选择不同规格的模型。Qwen-Image-2512有不同版本可以根据对画质和速度的要求选择。限制生成尺寸不是所有场景都需要1024x1024的大图适当调整尺寸可以节省成本。实现用量监控监控API使用情况设置预算警报。7. 总结把Qwen-Image-2512和LangChain结合起来用确实能解决很多实际问题。从简单的文本到图像生成到复杂的多轮对话编辑再到具体的业务场景应用这个组合展现了很大的灵活性。实际用下来Qwen-Image-2512的生成质量确实不错特别是在人物真实感和细节处理上比之前的版本有明显提升。LangChain则提供了强大的流程编排能力让我们可以设计出各种智能化的图像生成流程。当然这个方案也不是完美的。比如API调用的延迟问题、成本控制、错误处理等都需要在实际应用中仔细考虑。但总体来说对于需要将自然语言处理与图像生成结合起来的应用场景这个组合是一个值得尝试的方案。如果你也打算尝试建议先从简单的例子开始熟悉基本的流程和API调用然后再逐步扩展到更复杂的应用场景。过程中遇到问题很正常多调试、多优化慢慢就能找到最适合自己需求的方案了。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2411905.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…