Phi-3-Mini-128K高并发服务架构设计:负载均衡与自动扩缩容策略

news2026/3/29 13:10:27
Phi-3-Mini-128K高并发服务架构设计负载均衡与自动扩缩容策略你是不是也遇到过这种情况自己部署的AI模型服务平时用着挺好一旦用户量稍微上来点或者有人发了个长请求服务就卡死甚至直接挂掉。然后就是手忙脚乱地重启、扩容用户体验一落千丈。特别是像Phi-3-Mini-128K这样轻量但能力不俗的模型很多朋友都想把它用在生产环境里处理一些实时对话、文档分析之类的任务。但单机部署的脆弱性让大家心里都没底。今天我们就来聊聊怎么给Phi-3-Mini-128K搭建一个“打不垮”的服务架构。核心就两件事让流量均匀分摊让服务能屈能伸。说白了就是用负载均衡和自动扩缩容把单点的风险分散掉把资源用得更聪明。跟着这篇教程走你也能拥有一个既稳定又能扛住压力的AI服务后端。1. 从单点服务到高可用集群架构演进思路在动手敲代码之前咱们先花几分钟把整体思路理清楚。这能帮你理解后面每一步是在干什么而不是机械地复制命令。最开始我们可能只是简单地在服务器上跑了一个Phi-3-Mini的推理服务用一个端口对外提供API。这种“单点架构”就像一家只有一个厨师的餐馆生意好的时候厨师累瘫顾客等疯厨师请假餐馆直接关门。我们的目标是把它升级成一家“连锁餐厅”前厅负载均衡有一个智能接待员Nginx顾客来了他负责查看哪个分店服务实例比较闲就把顾客指引过去。后厨服务实例有多个分店多个Phi-3-Mini服务进程它们做一样的菜提供相同的推理功能。经理监控与扩缩容有个经理一直盯着所有分店的忙碌程度和顾客排队情况。发现某个分店快忙不过来了或者整体客流量暴涨就立刻打电话叫醒更多厨师扩容新实例发现客流量少了就让部分厨师先下班休息缩容节省成本。这个架构的核心价值就三点高可用一个分店挂了其他照常营业、高并发能同时服务更多顾客、弹性根据生意自动调整人手。接下来我们就分步把这家“连锁餐厅”开起来。2. 搭建基础部署多个Phi-3-Mini服务实例负载均衡的前提是得有多个“均衡”的对象。所以第一步我们在单台或多台服务器上启动多个Phi-3-Mini服务进程。假设你已经知道如何启动一个基本的Phi-3-Mini推理服务了。这里我们通过改变端口号在一台机器上快速启动多个实例。在生产中这些实例通常会分布在不同的服务器或容器中。# 实例1监听8000端口 python -m vllm.entrypoints.openai.api_server \ --model microsoft/Phi-3-mini-128k-instruct \ --served-model-name Phi-3-mini-128k \ --port 8000 \ --max-model-len 128000 \ --tensor-parallel-size 1 # 实例2监听8001端口 python -m vllm.entrypoints.openai.api_server \ --model microsoft/Phi-3-mini-128k-instruct \ --served-model-name Phi-3-mini-128k \ --port 8001 \ --max-model-len 128000 \ --tensor-parallel-size 1 # 实例3监听8002端口可以根据机器资源决定启动数量 python -m vllm.entrypoints.openai.api_server \ --model microsoft/Phi-3-mini-128k-instruct \ --served-model-name Phi-3-mini-128k \ --port 8002 \ --max-model-len 128000 \ --tensor-parallel-size 1 用符号让命令在后台运行。启动后你可以用curl分别测试一下每个实例是否健康curl http://localhost:8000/health curl http://localhost:8001/health curl http://localhost:8002/health如果都返回OK说明我们的三个“后厨分店”已经准备就绪。现在我们需要一个“智能接待员”来分配顾客。3. 配置智能接待员Nginx负载均衡与API网关Nginx在这里扮演两个关键角色一是作为API网关对外提供统一的访问入口二是作为负载均衡器把请求合理地分发给后端的服务实例。3.1 安装与基础配置首先确保你的服务器上安装了Nginx。然后我们来编辑它的配置文件通常位于/etc/nginx/nginx.conf或/etc/nginx/conf.d/目录下。我们创建一个新的配置文件比如phi3_lb.conf。# /etc/nginx/conf.d/phi3_lb.conf upstream phi3_backend { # 负载均衡算法这里使用轮询round-robin # 其他常用算法least_conn最少连接、ip_hash按IP哈希 least_conn; # 定义后端服务器组即我们的三个服务实例 # 参数说明max_fails3 失败3次后标记为不可用fail_timeout30s 30秒后再尝试 server 127.0.0.1:8000 max_fails3 fail_timeout30s; server 127.0.0.1:8001 max_fails3 fail_timeout30s; server 127.0.0.1:8002 max_fails3 fail_timeout30s; # 可选设置会话保持如果需要同一用户请求落到同一后端 # sticky cookie srv_id expires1h domain.yourdomain.com path/; } server { listen 80; # 如果你的服务有域名在这里配置 # server_name api.your-ai-service.com; location / { # 将请求代理到上游服务器组 proxy_pass http://phi3_backend; # 以下是一系列重要的代理设置确保请求正确传递 proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; # 超时设置根据模型推理时间调整 proxy_connect_timeout 60s; proxy_send_timeout 300s; # 长文本生成可能需要较长时间 proxy_read_timeout 300s; client_max_body_size 50M; # 允许较大的请求体 # 启用缓冲避免大响应阻塞Nginx proxy_buffering on; proxy_buffer_size 128k; proxy_buffers 4 256k; proxy_busy_buffers_size 256k; } # 添加一个健康检查端点供后续监控系统使用 location /nginx_status { stub_status on; access_log off; allow 127.0.0.1; # 只允许本机访问安全考虑 deny all; } }3.2 关键配置解析这个配置里有几个点值得拎出来说说least_conn我们选择了“最少连接数”算法。这意味着Nginx会把新请求发给当前连接数最少的那个后端实例。对于AI推理这种可能耗时差异大的请求这比简单的“轮询”更公平能更好地平衡负载。max_fails和fail_timeout这是健康检查的雏形。如果Nginx连续3次向后端某个实例发送请求都失败了它就会暂时30秒认为这个实例“病了”不再把新请求发过去。30秒后会再尝试发一次如果成功了就把它重新加回“健康”队伍。超时设置proxy_read_timeout 300s很重要。Phi-3-Mini处理长上下文时可能需要几十秒这个值要设得足够大避免请求被意外切断。配置完成后检查语法并重启Nginxsudo nginx -t # 测试配置文件语法 sudo systemctl restart nginx # 重启Nginx服务现在你的AI服务就有了一个统一的入口服务器IP或域名所有请求都会先到Nginx再由它智能地分发给后端的Phi-3-Mini实例。你可以用下面的命令测试负载均衡是否生效# 连续发几次请求观察它们被分配到不同端口 for i in {1..10}; do curl -s http://你的服务器IP/v1/chat/completions | grep -o model:[^]* | head -1; done4. 设计健康检查机制确保每个“分店”都健康Nginx自带的被动健康检查失败标记是基础但还不够主动。我们需要一个更积极的“经理”定期去每个“分店”巡查看看厨师服务是不是真的在正常工作。一个健壮的健康检查通常包括两层存活检查服务进程还在吗能响应吗就绪检查服务不仅活着还能正常处理业务吗比如GPU内存是否爆了对于vLLM启动的OpenAI API兼容服务它提供了/health端点我们可以用它。我们写一个简单的Python脚本来做主动健康检查并集成到监控系统中。# health_checker.py import requests import time import logging from typing import List logging.basicConfig(levellogging.INFO) logger logging.getLogger(__name__) class Phi3HealthChecker: def __init__(self, server_list: List[str]): 初始化健康检查器 :param server_list: 后端服务地址列表如 [http://127.0.0.1:8000, ...] self.servers server_list self.healthy_servers set() self.check_interval 30 # 检查间隔秒 def check_single_server(self, server_url: str) - bool: 检查单个服务器是否健康 try: # 1. 基础存活检查 resp requests.get(f{server_url}/health, timeout5) if resp.status_code 200 and resp.json().get(status) OK: # 2. 可选就绪检查发送一个轻量级推理请求 # 这里为了效率我们暂时只做存活检查。就绪检查可以放在更低频的独立任务中。 return True except (requests.exceptions.RequestException, KeyError, ValueError) as e: logger.warning(fHealth check failed for {server_url}: {e}) return False def run_continuous_check(self): 持续运行健康检查 logger.info(fStarting health checker for servers: {self.servers}) while True: current_healthy set() for server in self.servers: if self.check_single_server(server): current_healthy.add(server) if server not in self.healthy_servers: logger.info(fServer {server} became healthy.) else: if server in self.healthy_servers: logger.error(fServer {server} became unhealthy!) self.healthy_servers current_healthy # 这里可以添加逻辑如果某个服务不健康通知运维或自动从Nginx upstream移除 # 例如调用一个脚本动态更新Nginx配置 time.sleep(self.check_interval) if __name__ __main__: # 你的后端服务列表 servers [ http://127.0.0.1:8000, http://127.0.0.1:8001, http://127.0.0.1:8002 ] checker Phi3HealthChecker(servers) checker.run_continuous_check()这个脚本会每隔30秒检查一遍所有后端服务。在实际生产环境中你可以将这个健康检查的结果通过API告知一个“配置管理中心”。由“配置管理中心”自动更新Nginx的upstream配置踢掉不健康的节点。这可以通过Nginx的upstream动态配置模块或者结合Consul、etcd等服务发现工具来实现。有了健康检查我们的“经理”就能实时掌握每个“分店”的状态了。接下来我们要让这位经理拥有“招人”和“裁员”的权力也就是自动扩缩容。5. 实现能屈能伸基于监控的自动扩缩容策略自动扩缩容是整个架构中最“智能”的部分。它的目标是在流量高峰时自动增加实例以保障性能在流量低谷时自动减少实例以节约成本。实现自动扩缩容需要一个监控系统来收集指标一个规则引擎来判断何时伸缩以及一个执行器来执行伸缩动作。5.1 监控指标收集我们需要收集哪些数据来判断是否要扩容系统资源指标CPU使用率、GPU内存使用率、系统内存使用率。服务性能指标请求QPS每秒查询数、平均响应延迟、错误率。队列指标Nginx或服务自身等待处理的请求队列长度。这里以使用Prometheus监控 Grafana可视化的经典组合为例。我们需要在运行Phi-3-Mini的机器上部署Node Exporter来收集系统指标并让vLLM服务暴露Prometheus格式的指标如果vLLM支持的话或者自己写一个简单的指标导出器。一个简单的思路是在负载均衡器Nginx这一层通过日志分析或者Nginx模块来统计QPS和延迟。也可以在每个Phi-3-Mini服务旁部署一个轻量级的Agent定期收集该进程的GPU内存等信息并推送到监控系统。5.2 制定扩缩容规则规则是大脑。我们可以定义一些简单的规则例如指标条件动作冷却时间平均GPU内存使用率 85% 持续 3分钟扩容1个实例5分钟平均请求延迟 5秒 持续 2分钟扩容1个实例5分钟总QPS 100 持续 5分钟扩容1个实例5分钟平均GPU内存使用率 30% 持续 10分钟缩容1个实例10分钟总QPS 20 持续 15分钟缩容1个实例10分钟冷却时间是为了防止指标抖动导致频繁的伸缩操作造成系统震荡。5.3 使用Kubernetes实现自动扩缩容现代云原生方案如果你是在KubernetesK8s中部署服务那么自动扩缩容会变得非常方便。K8s提供了Horizontal Pod AutoscalerHPA和Vertical Pod AutoscalerVPA。下面是一个简化的K8s部署和HPA配置示例# phi3-deployment.yaml apiVersion: apps/v1 kind: Deployment metadata: name: phi3-mini-inference spec: replicas: 3 # 初始实例数 selector: matchLabels: app: phi3-mini template: metadata: labels: app: phi3-mini spec: containers: - name: phi3-mini image: your-registry/phi3-mini-vllm:latest # 你的自定义镜像 ports: - containerPort: 8000 resources: requests: memory: 8Gi cpu: 2 nvidia.com/gpu: 1 # 申请1块GPU limits: memory: 16Gi cpu: 4 nvidia.com/gpu: 1 env: - name: MODEL_NAME value: microsoft/Phi-3-mini-128k-instruct --- # phi3-hpa.yaml apiVersion: autoscaling/v2 kind: HorizontalPodAutoscaler metadata: name: phi3-mini-hpa spec: scaleTargetRef: apiVersion: apps/v1 kind: Deployment name: phi3-mini-inference minReplicas: 2 # 最小副本数 maxReplicas: 10 # 最大副本数 metrics: - type: Resource resource: name: cpu target: type: Utilization averageUtilization: 70 # 当CPU平均使用率超过70%时触发扩容 - type: Resource resource: name: memory target: type: Utilization averageUtilization: 80 # 当内存平均使用率超过80%时触发扩容 # 注意GPU指标需要额外的Metrics Server和Device Plugin支持 behavior: # 伸缩行为配置防止抖动 scaleDown: stabilizationWindowSeconds: 300 # 缩容冷却窗口300秒 policies: - type: Percent value: 50 periodSeconds: 60 scaleUp: stabilizationWindowSeconds: 60 # 扩容冷却窗口60秒 policies: - type: Percent value: 100 periodSeconds: 60在这个配置里K8s的HPA会根据整个Deployment所有Pod的CPU和内存平均使用率自动在2到10个副本之间调整数量。结合K8s的Service负载均衡也自动完成了。5.4 传统服务器上的简易扩缩容脚本如果没有用K8s我们也可以用脚本实现一个简化版的自动扩缩容。这个脚本定期检查监控数据可以从Prometheus API获取然后根据规则执行扩容启动新容器或新进程或缩容停止容器或进程操作。# simple_auto_scaler.py import requests import time import subprocess import logging logging.basicConfig(levellogging.INFO) logger logging.getLogger(__name__) PROMETHEUS_URL http://your-prometheus-server:9090 CURRENT_INSTANCES [8000, 8001, 8002] # 当前运行的端口列表 MAX_INSTANCES 8 MIN_INSTANCES 2 BASE_PORT 8000 def query_prometheus(query): 从Prometheus查询指标 try: resp requests.get(f{PROMETHEUS_URL}/api/v1/query, params{query: query}, timeout10) resp.raise_for_status() result resp.json()[data][result] if result: return float(result[0][value][1]) except Exception as e: logger.error(fQuery Prometheus failed: {e}) return None def scale_out(): 扩容启动一个新实例 if len(CURRENT_INSTANCES) MAX_INSTANCES: logger.warning(Already reached max instances limit.) return False new_port max(CURRENT_INSTANCES) 1 # 这里需要根据你的部署方式编写启动新进程的命令例如用docker run或直接执行命令 cmd fdocker run -d -p {new_port}:8000 your-phi3-image # 或者直接启动进程 # cmd fpython -m vllm.entrypoints.openai.api_server --port {new_port} ... try: subprocess.run(cmd, shellTrue, checkTrue) CURRENT_INSTANCES.append(new_port) logger.info(fScaled out. New instance on port {new_port} started.) # 重要需要动态更新Nginx的upstream配置并重载Nginx update_nginx_config() return True except subprocess.CalledProcessError as e: logger.error(fFailed to scale out: {e}) return False def scale_in(): 缩容停止一个实例选择负载最低或最老的 if len(CURRENT_INSTANCES) MIN_INSTANCES: logger.warning(Already reached min instances limit.) return False # 简单策略停止端口号最大的那个实例假设是最新创建的 port_to_remove max(CURRENT_INSTANCES) # 编写停止进程的命令 cmd fdocker stop $(docker ps -q --filter publish{port_to_remove}) try: subprocess.run(cmd, shellTrue, checkTrue) CURRENT_INSTANCES.remove(port_to_remove) logger.info(fScaled in. Instance on port {port_to_remove} stopped.) update_nginx_config() return True except subprocess.CalledProcessError as e: logger.error(fFailed to scale in: {e}) return False def update_nginx_config(): 根据当前实例列表更新Nginx配置文件并重载 # 生成新的upstream配置块 upstream_config upstream phi3_backend {\n least_conn;\n for port in CURRENT_INSTANCES: upstream_config f server 127.0.0.1:{port} max_fails3 fail_timeout30s;\n upstream_config }\n # 这里需要将upstream_config写入Nginx配置文件并执行 nginx -s reload # 具体实现略需考虑文件锁和原子性更新 logger.info(Nginx config should be updated here.) def main_loop(): 主循环定期检查指标并决策 while True: # 1. 查询关键指标示例平均请求延迟 avg_latency query_prometheus(avg(rate(vllm_request_duration_seconds_sum[5m]))) # 查询QPS qps query_prometheus(rate(vllm_request_total[5m])) # 查询GPU内存使用率需要自定义指标 # gpu_mem_usage query_prometheus(...) logger.info(fCurrent metrics - Latency: {avg_latency}, QPS: {qps}) # 2. 根据规则做决策这里是一个简单示例 if avg_latency and avg_latency 5.0: # 延迟大于5秒 logger.warning(High latency detected, considering scale out.) scale_out() elif qps and qps 10 and len(CURRENT_INSTANCES) MIN_INSTANCES: # QPS很低且实例数有余量 logger.info(Low QPS detected, considering scale in.) scale_in() # 3. 等待下一个检查周期 time.sleep(60) # 每分钟检查一次 if __name__ __main__: main_loop()这个脚本只是一个概念演示真实环境需要考虑更多细节比如并发控制、配置管理、错误处理等。但它清晰地展示了自动扩缩容的核心逻辑监控 - 判断 - 执行。6. 把这一切串起来架构全景与运维建议走完前面五步我们来看看完整的“连锁餐厅”架构图用户请求 | v [Nginx负载均衡器] (统一入口健康检查流量分发) | | (负载均衡算法如 least_conn) v [Phi-3-Mini实例集群] (实例1:8000, 实例2:8001, 实例3:8002, ...) | | | | | | [健康检查Agent] [监控数据] (Prometheus) | | | | v v | [监控告警系统] (Grafana, Alertmanager) | | v v [配置管理中心] - [自动扩缩容控制器] (HPA 或 自定义脚本) | v (动态更新Nginx后端列表或K8s调整Pod数量)为了让这个架构稳定运行这里还有几个实用的运维建议从简单开始如果刚开始流量不大可以先实现负载均衡和基础健康检查。自动扩缩容可以等业务量增长后再引入。灰度与回滚无论是更新模型版本还是修改架构配置一定要有灰度发布和快速回滚的方案。可以先在一个实例上测试没问题再同步到所有实例。日志集中管理所有实例的日志都应该收集到一个中心如ELK Stack这样出问题时才能快速定位。设置告警对关键指标错误率、延迟、GPU内存设置告警别等用户投诉了才发现问题。压力测试在上线前用工具模拟高并发场景看看架构的瓶颈在哪里做到心中有数。7. 写在最后整套方案实践下来最深的体会是高可用和高并发不是一蹴而就的魔法而是一系列务实设计叠加的结果。从单点服务到负载均衡集群是从“脆弱”到“健壮”的第一步再加上自动扩缩容则是从“健壮”升级为“弹性”让服务既能应对流量高峰又能在平时节省资源。对于Phi-3-Mini-128K这样的模型本身已经比较轻量通过本文的架构完全有能力支撑起一个中等规模的在线业务。关键在于你要根据自己实际的业务流量、硬件成本和运维能力来调整其中的参数和细节。比如健康检查的频率、扩缩容的阈值、实例的最大最小数量这些都没有标准答案需要在运行中不断观察和调优。希望这篇教程能帮你打消对AI服务上生产环境的顾虑。架构搭建的过程就像搭积木一步步来遇到问题就解决问题最终你会得到一个让你安心睡觉的稳定服务。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2461527.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…