AI头像生成器生产环境部署:Qwen3-32B镜像Docker化与API服务封装

news2026/3/24 15:50:05
AI头像生成器生产环境部署Qwen3-32B镜像Docker化与API服务封装1. 引言从创意到部署的完整链路你有没有过这样的经历脑子里有一个绝佳的头像创意但面对Midjourney或Stable Diffusion的输入框时却不知道如何用文字精准地描述出来。是“一个戴着眼镜、有点酷的程序员”还是“一个在赛博朋克城市里回眸的少女”描述越模糊AI画出来的东西就越可能跑偏。这正是AI头像生成器要解决的问题。它不是一个直接画图的工具而是一个“创意翻译官”。你只需要用大白话描述想要的风格它就能帮你生成一份详细到头发丝、光影、背景的“AI绘图说明书”。这份说明书可以直接丢给Midjourney、Stable Diffusion等工具大大提高你获得理想头像的效率。今天我们不只聊怎么用更要聊怎么把它变成一个稳定、可靠、能随时调用的服务。我们将基于强大的Qwen3-32B模型一步步带你完成从本地测试到生产环境Docker化部署再到封装成标准API服务的全过程。无论你是个人开发者想搭建自己的创意工具还是团队需要集成AI能力这篇文章都能给你一套可落地的方案。2. 核心功能与价值为什么选择它在深入技术细节之前我们先看看这个AI头像生成器到底能做什么以及它背后的技术选型为什么合理。2.1 它能帮你解决什么问题想象一下这些场景社交媒体运营需要为团队或品牌设计一系列风格统一的头像手动构思描述词耗时耗力。游戏或小说创作者需要为笔下的角色生成视觉形象但自己不是专业画师。普通用户想换个与众不同的头像却苦于没有设计灵感或者有灵感但无法表达。这个工具的核心价值在于“降低创意表达的门槛”。它把“模糊的想法”转化为“可执行的AI绘图指令”。2.2 功能亮点一览基于Qwen3-32B的模型能力这个头像生成器具备以下特点多风格精准理解无论是“古风仙侠”、“赛博朋克”还是“日系动漫”、“美式卡通”模型都能准确捕捉风格精髓并在生成的描述中体现相应的元素和质感。细节刻画能力它不会只给你一个“一个女孩”这样的笼统描述。而是会生成包含人物特征发型、五官、服饰、表情神态、场景背景、光影氛围、构图视角乃至艺术风格参考的完整文案。提示词优化生成的描述文案本身就是为AI绘图工具优化的Prompt。它懂得使用合适的权重符号如(masterpiece:1.2)、风格标签如trending on artstation和负面提示词来引导绘图AI产出更高质量的作品。中英双语支持你可以用中文描述需求它既能生成中文描述方便你理解也能直接输出标准的英文Prompt复制粘贴即可使用。2.3 技术选型为什么是Qwen3-32B在众多大模型中我们选择Qwen3-32B作为底座主要基于以下几点考虑强大的中文理解与生成能力作为国产模型的佼佼者Qwen对中文语境、文化元素的把握非常到位这对于生成符合中文用户审美的头像描述至关重要。优秀的指令遵循能力32B的参数量在理解复杂、多层次的用户指令如“要古风但带一点现代感背景是竹林表情忧郁”时表现比更小的模型更加稳定和精准。开源与可定制性Qwen系列完全开源允许我们在其基础上进行微调或知识注入未来可以针对头像生成这个垂直领域做进一步优化。性能与资源的平衡相比70B或更大模型32B版本对计算资源的要求相对友好在保证效果的同时更适合作为一项常驻服务部署。3. 本地开发与快速体验在考虑部署之前我们先在本地快速搭建起来直观感受一下它的效果。这里我们使用Ollama来快速拉取和运行模型。3.1 环境准备确保你的机器满足以下基本要求操作系统Linux (Ubuntu 20.04 推荐) 或 macOS。Windows可通过WSL2运行。内存至少32GB RAM。运行Qwen3-32B模型本身需要较大内存。磁盘空间至少20GB可用空间。Python3.9 或 3.10版本。3.2 使用Ollama一键启动Ollama极大地简化了大型语言模型的本地运行。如果你还没有安装Ollama可以参照其官网进行安装。这里假设你已经安装好。第一步拉取并运行Qwen3-32B模型打开终端执行以下命令。这会下载约20GB的模型文件请耐心等待。ollama run qwen2.5:32b运行成功后你会进入一个交互式界面可以直接与模型对话测试。第二步准备我们的头像生成脚本我们创建一个简单的Python脚本通过Ollama的API来调用模型实现头像描述生成的功能。新建一个文件avatar_generator.pyimport requests import json def generate_avatar_prompt(user_description, stylegeneral): 调用本地Ollama服务生成头像描述Prompt。 参数: user_description: 用户用自然语言描述的头像需求。 style: 可选风格引导如 anime, cyberpunk, ancient。 返回: 生成的详细描述文案。 # Ollama API 地址 (默认本地) url http://localhost:11434/api/generate # 构建系统提示词告诉模型它的角色和任务 system_prompt f你是一个专业的AI头像创意设计师。用户会描述他们想要的头像风格你需要生成一份极其详细、适合直接用于Midjourney或Stable Diffusion等AI绘图工具的英文描述文案Prompt。 要求 1. 文案必须用英文。 2. 必须包含以下维度人物主体特征发型、脸型、五官、服饰、表情与神态、背景与环境、光影与色彩、构图与视角、艺术风格与质量标签。 3. 根据用户描述的风格倾向如{style}融入相应的元素和关键词。 4. 生成的Prompt应结构清晰关键词用逗号分隔可以适当使用括号()来调整权重。 5. 最后附上一段简短的中文解释说明这个Prompt的设计思路。 现在请为用户的需求生成描述。 # 组合完整的用户消息 full_prompt f用户需求{user_description}\n请生成对应的AI绘图Prompt。 payload { model: qwen2.5:32b, prompt: full_prompt, system: system_prompt, stream: False, # 非流式响应一次性获取结果 options: { temperature: 0.7, # 创造性温度0.7比较平衡 top_p: 0.9, num_predict: 512 # 生成的最大token数 } } try: response requests.post(url, jsonpayload) response.raise_for_status() # 检查请求是否成功 result response.json() return result.get(response, 生成失败请检查模型服务。) except requests.exceptions.RequestException as e: return f请求Ollama API失败: {e} if __name__ __main__: # 测试例子 user_input 我想要一个赛博朋克风格的女性角色头像她有一头蓝色的短发戴着高科技眼镜背景是霓虹灯下的雨夜都市。 generated_prompt generate_avatar_prompt(user_input, stylecyberpunk) print(生成的AI绘图Prompt) print(*50) print(generated_prompt) print(*50)第三步运行测试确保Ollama正在后台运行即ollama run qwen2.5:32b在另一个终端运行着。然后在脚本所在目录运行python avatar_generator.py你会看到模型生成的一段详细的英文Prompt和中文解释。将它复制到Midjourney等工具中就能生成对应的图像了。通过这个简单的本地测试你已经验证了核心功能。接下来我们要把它变成一个随时可用的Web服务。4. 使用Gradio构建Web交互界面对于内部工具或小范围分享一个友好的Web界面比命令行脚本好用得多。Gradio是一个快速构建机器学习Demo的Python库几行代码就能做出交互式界面。4.1 安装依赖并创建应用首先安装必要的库pip install gradio requests然后创建一个新的Python文件app.pyimport gradio as gr import requests import json import time # 复用之前的生成函数稍作修改以适应Gradio def generate_with_ollama(user_desc, style_choice): url http://localhost:11434/api/generate style_map { 赛博朋克: cyberpunk, 古风仙侠: ancient Chinese fantasy, 日系动漫: anime, 写实肖像: photorealistic portrait, 美式卡通: American cartoon, 简约插画: minimalist illustration } style_keyword style_map.get(style_choice, general) system_prompt f你是一个专业的AI头像创意设计师。根据用户描述和“{style_keyword}”风格倾向生成一份极其详细、适合AI绘图的英文Prompt。 要求英文Prompt需包含人物特征、表情、背景、光影、构图、艺术风格标签。最后用中文简要说明设计思路。 full_prompt f用户需求{user_desc}\n风格倾向{style_keyword}\n请生成对应的AI绘图Prompt。 payload { model: qwen2.5:32b, prompt: full_prompt, system: system_prompt, stream: False, options: {temperature: 0.7} } try: response requests.post(url, jsonpayload, timeout60) result response.json() return result.get(response, 生成失败) except Exception as e: return f生成过程中出现错误: {str(e)} # 构建Gradio界面 with gr.Blocks(titleAI头像创意生成器, themegr.themes.Soft()) as demo: gr.Markdown(# AI头像创意生成器) gr.Markdown(描述你想要的风格AI帮你生成详细的绘图指令Prompt可直接用于Midjourney、Stable Diffusion等工具。) with gr.Row(): with gr.Column(scale2): user_input gr.Textbox( label描述你的头像创意, placeholder例如一个在图书馆里看书的猫娘戴着圆眼镜表情安静有阳光从窗户照进来..., lines4 ) style_dropdown gr.Dropdown( choices[赛博朋克, 古风仙侠, 日系动漫, 写实肖像, 美式卡通, 简约插画, 其他/混合], value日系动漫, label选择主要风格倾向 ) generate_btn gr.Button(生成创意描述, variantprimary) with gr.Column(scale3): output_text gr.Textbox( label生成的AI绘图Prompt, lines12, interactiveFalse # 只读方便复制 ) # 示例区 gr.Markdown(### 示例) examples gr.Examples( examples[ [一个未来感的机械僧侣面部一半是金属一半是正常皮肤眼神悲悯背景是荒芜的星球。, 赛博朋克], [一位手持折扇的唐朝贵女在月下梨花树下回眸衣裙飘逸表情清冷。, 古风仙侠], [一个开朗的篮球少年红色短发穿着运动服在球场跃起扣篮的瞬间动态感强。, 写实肖像], ], inputs[user_input, style_dropdown], label点击下方示例快速尝试 ) # 绑定按钮事件 generate_btn.click( fngenerate_with_ollama, inputs[user_input, style_dropdown], outputsoutput_text ) gr.Markdown(---) gr.Markdown(**使用提示**复制上方生成的英文Prompt部分粘贴到你的AI绘图工具中。中文部分是对设计思路的解释帮助你理解。) # 启动应用 if __name__ __main__: # 注意这里默认Ollama服务运行在本地11434端口 demo.launch(server_name0.0.0.0, server_port7860, shareFalse)4.2 运行与访问在终端运行python app.py然后在浏览器中打开http://localhost:7860你就能看到一个完整的Web应用界面。输入描述选择风格点击按钮几秒钟后就能得到生成的Prompt。现在我们有了一个可交互的本地应用。但要让别人也能用或者集成到其他系统里我们需要更稳定、更标准的部署方式。5. Docker化部署构建可移植的镜像Docker能将我们的应用及其所有依赖Python环境、库、甚至模型服务打包成一个独立的容器。这意味着你可以在任何安装了Docker的机器上一键启动完全相同的服务无需担心环境配置问题。我们将构建一个包含Ollama运行Qwen模型和Gradio Web界面的完整Docker镜像。5.1 编写Dockerfile创建一个名为Dockerfile的文件内容如下# 使用一个包含CUDA的PyTorch基础镜像方便后续扩展GPU支持 FROM pytorch/pytorch:2.1.0-cuda11.8-cudnn8-runtime # 设置工作目录 WORKDIR /app # 安装系统依赖和Ollama RUN apt-get update apt-get install -y \ curl \ rm -rf /var/lib/apt/lists/* # 安装Ollama RUN curl -fsSL https://ollama.com/install.sh | sh # 复制应用代码 COPY . . # 安装Python依赖 (Gradio等) RUN pip install --no-cache-dir -r requirements.txt # 暴露端口 # 7860: Gradio Web界面 # 11434: Ollama API端口 EXPOSE 7860 11434 # 启动脚本同时启动Ollama服务和Gradio应用 COPY start.sh /start.sh RUN chmod x /start.sh CMD [/start.sh]5.2 创建启动脚本和依赖文件创建requirements.txtgradio4.0 requests2.28创建start.sh启动脚本#!/bin/bash set -e echo Step 1: 启动Ollama服务并拉取Qwen3-32B模型... # 后台启动Ollama服务 ollama serve OLLAMA_PID$! # 等待Ollama服务就绪 sleep 5 # 拉取模型如果本地没有则会下载 echo 正在拉取 qwen2.5:32b 模型这可能需要一些时间取决于网络速度... ollama pull qwen2.5:32b echo Step 2: 启动Gradio Web应用... # 在前台启动Gradio这样Docker容器会保持运行 python app.py # 如果Gradio应用退出也关闭Ollama kill $OLLAMA_PID5.3 构建与运行Docker镜像在包含Dockerfile,requirements.txt,start.sh,app.py的目录下打开终端。第一步构建Docker镜像docker build -t ai-avatar-generator:latest .这个过程会下载基础镜像、安装依赖、拉取模型首次构建时可能需要较长时间。第二步运行Docker容器docker run -d \ --name avatar-gen \ -p 7860:7860 \ -p 11434:11434 \ --restart unless-stopped \ ai-avatar-generator:latest-d后台运行。--name给容器起个名字。-p端口映射将容器的7860和11434端口映射到宿主机的相同端口。--restart设置重启策略确保容器意外退出时能自动重启。第三步访问服务构建并运行成功后在浏览器访问http://你的服务器IP:7860就能看到和本地一模一样的Web界面了。现在你的AI头像生成器已经成为一个可以部署在任何云服务器、本地服务器甚至笔记本上的独立服务。但这还不够对于生产环境我们通常需要更轻量、更专注于API接口的服务形态。6. 封装为标准化API服务Web界面适合人工交互但如果我们想把这个能力集成到自己的App、小程序或者自动化工作流中就需要一个标准的API。我们将使用FastAPI来构建一个高性能的异步API服务。6.1 设计API接口我们规划一个简单清晰的APIPOST /generate: 核心生成接口接收用户描述和风格参数返回生成的Prompt。GET /health: 健康检查接口用于监控服务状态。6.2 使用FastAPI实现API服务首先安装FastAPI和异步HTTP客户端pip install fastapi uvicorn httpx然后创建api_server.py文件from fastapi import FastAPI, HTTPException from pydantic import BaseModel from typing import Optional import httpx import asyncio import time from contextlib import asynccontextmanager # 定义请求数据模型 class GenerateRequest(BaseModel): description: str style: Optional[str] general temperature: Optional[float] 0.7 max_tokens: Optional[int] 512 # 定义响应数据模型 class GenerateResponse(BaseModel): success: bool data: Optional[dict] None error: Optional[str] None latency: float # 响应延迟单位秒 # 生命周期管理启动时初始化HTTP客户端关闭时清理 asynccontextmanager async def lifespan(app: FastAPI): # 启动时 app.state.http_client httpx.AsyncClient(timeout60.0) yield # 关闭时 await app.state.http_client.aclose() # 创建FastAPI应用 app FastAPI( titleAI头像创意生成API, description基于Qwen3-32B模型将自然语言描述转化为详细的AI绘图Prompt。, version1.0.0, lifespanlifespan ) app.get(/) async def root(): return {message: AI Avatar Prompt Generator API is running., docs: /docs} app.get(/health) async def health_check(): 健康检查端点 try: # 简单检查Ollama服务是否可达 async with httpx.AsyncClient() as client: resp await client.get(http://localhost:11434/api/tags) if resp.status_code 200: return {status: healthy, ollama: reachable} else: return {status: degraded, ollama: unreachable} except Exception: return {status: unhealthy, ollama: error} app.post(/generate, response_modelGenerateResponse) async def generate_prompt(request: GenerateRequest): 核心生成接口。 接收用户描述和风格参数调用Ollama服务生成AI绘图Prompt。 start_time time.time() # 构建系统提示词 system_prompt f你是一个专业的AI头像创意设计师。根据用户描述和“{request.style}”风格倾向生成一份极其详细、适合AI绘图的英文Prompt。 要求 1. 输出必须为纯文本。 2. 第一部分是英文Prompt需包含人物特征、表情、背景、光影、构图、艺术风格标签。关键词用逗号分隔可合理使用()和[]调整权重。 3. 第二部分是中文设计思路解释以“设计思路”开头。 4. 两部分之间用两个换行符分隔。 user_prompt f用户需求{request.description}\n请生成对应的AI绘图Prompt。 payload { model: qwen2.5:32b, prompt: user_prompt, system: system_prompt, stream: False, options: { temperature: request.temperature, num_predict: request.max_tokens } } try: # 异步调用Ollama API client app.state.http_client ollama_url http://localhost:11434/api/generate response await client.post(ollama_url, jsonpayload) response.raise_for_status() result response.json() generated_text result.get(response, ).strip() # 简单解析响应分离英文Prompt和中文解释 parts generated_text.split(\n\n) english_prompt parts[0] if len(parts) 0 else chinese_explanation parts[1] if len(parts) 1 else # 如果中文解释没有标记尝试查找 if 设计思路 not in chinese_explanation and len(parts) 1: chinese_explanation 设计思路 chinese_explanation latency time.time() - start_time return GenerateResponse( successTrue, data{ english_prompt: english_prompt, chinese_explanation: chinese_explanation, full_response: generated_text, model: qwen2.5:32b, usage: result.get(total_duration, 0) # 纳秒 }, errorNone, latencyround(latency, 3) ) except httpx.RequestError as e: latency time.time() - start_time return GenerateResponse( successFalse, dataNone, errorf请求Ollama服务失败: {str(e)}, latencyround(latency, 3) ) except Exception as e: latency time.time() - start_time return GenerateResponse( successFalse, dataNone, errorf生成过程中发生未知错误: {str(e)}, latencyround(latency, 3) ) if __name__ __main__: import uvicorn # 启动服务监听所有网络接口的8000端口 uvicorn.run(app, host0.0.0.0, port8000)6.3 更新Docker部署以支持API我们需要更新之前的Docker配置同时支持Web界面和API服务。修改start.sh脚本使其能启动两个服务#!/bin/bash set -e echo Step 1: 启动Ollama服务并拉取Qwen3-32B模型... ollama serve OLLAMA_PID$! sleep 10 ollama pull qwen2.5:32b echo Step 2: 启动Gradio Web界面 (端口:7860)... python app.py GRADIO_PID$! echo Step 3: 启动FastAPI服务 (端口:8000)... python api_server.py API_PID$! echo 所有服务已启动。 echo - Gradio Web界面: http://localhost:7860 echo - FastAPI接口: http://localhost:8000 echo - API文档: http://localhost:8000/docs # 等待任意一个子进程退出 wait -n # 如果有进程退出则终止所有相关进程 kill $OLLAMA_PID $GRADIO_PID $API_PID 2/dev/null || true echo 服务已停止。同时更新requirements.txt以包含新的依赖gradio4.0 requests2.28 fastapi0.104 uvicorn[standard]0.24 httpx0.25重新构建并运行Docker镜像后你将拥有Web界面http://服务器IP:7860适合手动操作和演示。REST APIhttp://服务器IP:8000适合程序调用。API文档http://服务器IP:8000/docs自动生成的交互式文档方便测试和对接。现在其他开发者或你的其他服务就可以通过简单的HTTP请求来调用头像生成能力了。7. 生产环境优化与进阶思考将服务部署到生产环境我们还需要考虑更多因素。7.1 性能与资源优化模型量化Qwen3-32B的原始版本对内存要求很高。可以考虑使用GPTQ、AWQ等量化技术将模型量化到4bit或8bit能在几乎不损失精度的情况下显著降低内存占用和提升推理速度。GPU支持如果服务器有NVIDIA GPU可以在Dockerfile中使用nvidia/cuda基础镜像并在运行容器时添加--gpus all参数将推理过程放到GPU上速度会有数量级的提升。API限流与缓存使用FastAPI的中间件或像slowapi这样的库来实现API限流防止恶意请求。对于常见的、重复的生成请求例如“赛博朋克男性头像”可以引入缓存如Redis直接返回缓存结果减少模型调用。7.2 监控与可观测性健康检查我们已经实现了/health端点可以将其接入Kubernetes的存活探针或外部监控系统如Prometheus。日志记录使用Python的logging模块将API的请求、响应、错误和耗时详细记录到文件或日志收集系统如ELK Stack中便于问题排查和性能分析。指标暴露使用prometheus-client库暴露一些关键指标如请求次数、平均响应时间、错误率等方便监控仪表盘展示。7.3 安全性与访问控制API密钥认证为API接口添加简单的API Key认证防止未授权访问。可以在FastAPI中使用依赖注入来实现。输入验证与过滤对用户输入的描述文本进行基本的清理和过滤防止Prompt注入攻击或恶意内容。网络隔离在Docker或Kubernetes中合理配置网络策略确保Ollama的API端口11434不直接暴露在公网只允许内部的FastAPI服务访问。7.4 扩展可能性多模型支持除了Qwen可以轻松扩展支持其他开源或闭源模型只需在API请求中指定不同的model参数并在后台管理多个模型服务。微调专属模型如果你有大量特定风格比如公司品牌形象的头像描述数据可以对Qwen3-32B进行LoRA等方式的微调让它更擅长生成你想要的风格。集成图片生成更进一步可以将这个服务与Stable Diffusion的API串联起来实现“描述文字 - 优化Prompt - 生成图片”的一站式流水线直接输出最终的头像图片。8. 总结通过本文的步骤我们完成了一个AI头像生成器从创意到生产级部署的完整旅程理解核心价值我们明确了工具定位——一个将模糊创意转化为精确AI绘图指令的“翻译官”。本地快速验证利用Ollama我们在本地快速运行起Qwen3-32B模型并通过Python脚本验证了核心生成功能。构建交互界面使用Gradio我们快速搭建了一个美观实用的Web界面让非技术用户也能轻松使用。实现容器化通过Docker我们将整个应用环境模型、后端、前端打包成一个可移植、易分发的镜像实现了“一次构建处处运行”。封装标准API采用FastAPI构建了高性能的RESTful API服务为系统集成和自动化流程提供了标准接口。展望生产优化探讨了性能、监控、安全等方面的优化方向为真正的生产环境部署做好了准备。这个项目展示了如何将一个前沿的AI能力大语言模型工程化、产品化、服务化的典型路径。无论你是想为自己打造一个创意工具还是为团队提供一个AI能力中台这套方法论都具有很强的参考价值。技术的魅力在于将复杂的模型变成简单可用的服务希望这篇文章能帮助你迈出这一步。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2444370.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…