gte-base-zh部署成本优化:Spot实例+自动伸缩应对流量峰谷的弹性方案

news2026/4/28 0:11:57
gte-base-zh部署成本优化Spot实例自动伸缩应对流量峰谷的弹性方案1. 引言当高可用遇上高成本想象一下这个场景你负责一个在线文档检索系统核心是使用gte-base-zh模型为海量文本生成向量。白天用户活跃每秒有上百个查询请求模型实例必须火力全开到了深夜流量骤降可能十分钟才有一个请求。如果按照白天的峰值流量来配置服务器资源意味着深夜有大量的计算资源在“空转”账单上的数字却不会休息。这就是很多AI应用部署面临的现实困境——流量峰谷差异巨大但资源成本却是固定的。gte-base-zh作为一款优秀的中文文本嵌入模型在信息检索、语义匹配等场景表现优异但它的推理服务同样需要应对这种不均衡的访问模式。今天我们就来探讨一个切实可行的解决方案基于Spot实例和自动伸缩的弹性部署方案。这个方案的核心思想很简单让资源使用量尽可能贴近实际需求曲线高峰时扩容低谷时缩容同时利用价格更低的Spot实例来进一步降低成本。通过本文你将了解到为什么传统的固定资源部署在成本上不划算如何利用云平台的Spot实例节省高达70%的计算成本怎样配置自动伸缩策略让服务能力随流量自动调整一套完整的、可落地的gte-base-zh弹性部署架构无论你是运维工程师、算法工程师还是技术负责人这套方案都能帮助你在保证服务可用性的前提下显著降低AI模型服务的运营成本。2. 理解gte-base-zh与Xinference部署在深入成本优化方案之前我们先快速回顾一下gte-base-zh的基本部署方式这是后续所有优化工作的基础。2.1 gte-base-zh模型简介gte-base-zh是由阿里巴巴达摩院研发的文本嵌入模型基于BERT框架专门针对中文场景优化训练。简单来说它的核心能力是把一段文本比如一个问题、一篇文章转换成一个固定长度的数字向量通常是768维。这个向量就像是文本的“数字指纹”包含了文本的语义信息。它能做什么语义搜索输入“如何学习Python编程”它能找到“Python入门教程”、“编程学习指南”等相关内容而不只是关键词匹配文本分类根据内容自动给文章打标签聚类分析把相似的文档自动归为一类推荐系统根据用户历史行为推荐相似内容模型的本地存储路径通常是/usr/local/bin/AI-ModelScope/gte-base-zh2.2 使用Xinference部署基础服务Xinference是一个开源的模型推理服务框架它让模型部署变得简单。对于gte-base-zh基本的启动流程如下启动Xinference服务# 在服务器上启动Xinference监听9997端口 xinference-local --host 0.0.0.0 --port 9997通过脚本启动模型服务 通常我们会有一个专门的启动脚本比如/usr/local/bin/launch_model_server.py这个脚本的核心作用是调用Xinference的接口把gte-base-zh模型加载起来对外提供API服务。验证服务是否正常 启动后查看日志确认服务状态cat /root/workspace/model_server.log看到模型加载成功的日志信息就说明服务已经就绪。通过Web界面测试 Xinference提供了友好的Web界面你可以在浏览器中打开对应的地址找到gte-base-zh模型对应的测试界面输入文本点击“相似度比对”按钮查看模型生成的向量或相似度计算结果这种部署方式简单直接适合开发和测试环境。但在生产环境中我们需要考虑更多如何应对流量波动如何保证高可用如何控制成本这就是接下来要解决的问题。3. 传统部署的成本痛点分析在讨论优化方案之前我们先来看看如果不做任何优化传统的部署方式会面临哪些成本问题。3.1 固定资源部署的浪费大多数团队在首次部署AI服务时会采用这种模式根据预估的峰值流量比如每秒100个请求选择足够强大的服务器实例比如8核32G的GPU实例部署固定数量的实例比如2个用于容灾7×24小时运行按月或按年付费这种模式的问题很明显资源利用率低下时间 | 00:00-08:00 | 08:00-12:00 | 12:00-18:00 | 18:00-24:00 请求量/秒 | 5-10 | 80-120 | 50-80 | 20-40 资源使用率 | 5%-10% | 80%-100% | 50%-80% | 20%-40%可以看到一天中只有少数时间段资源被充分利用大部分时间资源处于闲置状态但费用照付不误。成本结构不合理计算资源成本占总成本60%-80%但利用率可能只有30%-40%存储成本相对固定占比约10%-15%网络成本随流量变化占比约5%-10%运维成本人工监控、维护、备份等3.2 流量峰谷带来的挑战AI服务的流量模式往往有很强的规律性工作日 vs 周末工作日企业应用访问量大白天高峰明显周末流量可能下降50%以上时段性波动上班时间9:00-12:0014:00-18:00访问高峰午休时间12:00-14:00小幅下降夜间20:00-次日8:00流量低谷季节性/活动性峰值促销活动期间流量可能是平时的3-5倍新产品上线短期内访问量激增内容爆发传播突发的大流量访问3.3 手动调整的局限性有些团队可能会尝试手动调整高峰期前手动扩容低谷期手动缩容根据经验预测流量变化但这种做法问题很多响应延迟从发现流量增长到手动扩容完成可能需要30分钟以上操作风险手动操作容易出错可能导致服务中断人力成本需要专人7×24小时监控运维成本高预测不准突发流量无法提前预测正是这些痛点催生了我们需要一个自动化的、智能的弹性伸缩方案。4. 核心优化方案Spot实例 自动伸缩现在进入正题看看如何用Spot实例和自动伸缩来解决上述问题。这个方案的核心是“弹性”和“经济性”的结合。4.1 什么是Spot实例Spot实例是云平台提供的一种竞价实例价格通常比按需实例低60%-90%。它的工作原理类似于“机票竞价”——你出价购买闲置的计算资源当资源紧张或市场价格高于你的出价时实例可能会被回收。Spot实例的特点价格极低通常为按需实例价格的30%-40%可能被中断云平台提前2分钟通知给你时间保存状态适合无状态或可中断的工作负载比如批处理任务、渲染作业、AI推理服务为什么Spot实例适合AI推理服务成本敏感AI推理服务通常需要大量计算资源成本占比高可中断性单个推理请求通常很快毫秒到秒级即使实例中断新的请求可以被其他实例处理无状态gte-base-zh模型服务本身是无状态的请求之间相互独立有弹性架构兜底配合自动伸缩即使部分Spot实例中断服务仍可用4.2 自动伸缩如何工作自动伸缩Auto Scaling是云平台的核心服务之一它可以根据预设的策略自动调整计算资源的数量。核心组件伸缩组一组相同配置的实例集合启动配置实例的模板镜像、实例类型、存储等伸缩策略决定何时扩容、何时缩容的规则常见的伸缩策略基于监控指标的伸缩CPU使用率 70% → 扩容CPU使用率 30% → 缩容请求数量 阈值 → 扩容基于时间的伸缩工作日 8:00 → 扩容到5个实例工作日 20:00 → 缩容到2个实例周末全天 → 保持1个实例基于预测的伸缩机器学习预测未来流量提前扩容应对预期高峰4.3 两者结合的优势当Spot实例遇上自动伸缩就产生了“112”的效果成本大幅降低传统方案2个按需实例 × 24小时 × 30天 1440实例小时 混合方案1个按需实例始终运行 1-4个Spot实例按需启动 成本估算节省40%-70%弹性应对流量流量增长时自动启动更多Spot实例流量下降时自动终止部分Spot实例始终保持“刚好够用”的资源水平高可用保障始终保留至少1个按需实例作为基础保障Spot实例中断时自动伸缩会启动新的实例替代多可用区部署避免单点故障5. 实战部署构建弹性gte-base-zh服务理论讲完了现在我们来实际操作。这里以主流云平台为例展示如何搭建这套弹性架构。5.1 架构设计首先看整体架构图用户请求 → 负载均衡器 → 自动伸缩组 → gte-base-zh实例集群 ↑ 监控告警系统 ↑ 伸缩策略引擎组件说明负载均衡器分发请求到后端实例健康检查自动剔除异常实例自动伸缩组管理一组相同配置的实例负责扩容缩容实例集群混合使用按需实例和Spot实例监控系统收集CPU、内存、请求量等指标策略引擎根据指标触发伸缩动作5.2 准备基础镜像我们需要创建一个包含gte-base-zh和Xinference的定制化镜像这样新的实例启动后就能直接提供服务。创建启动脚本setup_model.sh#!/bin/bash # 安装基础依赖 apt-get update apt-get install -y python3-pip # 安装Xinference pip3 install xinference # 下载gte-base-zh模型如果镜像中未预置 # 这里假设模型已经预置在/usr/local/bin/AI-ModelScope/gte-base-zh # 创建模型启动脚本 cat /usr/local/bin/launch_model_server.py EOF import subprocess import time import sys def start_model_server(): # 启动Xinference服务 xinference_cmd [xinference-local, --host, 0.0.0.0, --port, 9997] # 这里可以添加模型加载逻辑 # 实际生产中可能需要更复杂的启动流程 process subprocess.Popen(xinference_cmd, stdoutsubprocess.PIPE, stderrsubprocess.STDOUT) # 等待服务启动 time.sleep(30) # 检查服务是否正常 # ... 健康检查逻辑 return process if __name__ __main__: start_model_server() EOF # 设置开机自启动 echo reboot root python3 /usr/local/bin/launch_model_server.py /etc/crontab # 启动服务 python3 /usr/local/bin/launch_model_server.py 创建健康检查脚本health_check.py#!/usr/bin/env python3 import requests import sys def check_health(): try: # 检查Xinference服务是否正常 response requests.get(http://localhost:9997, timeout5) if response.status_code 200: print(Service is healthy) return True else: print(fService returned status: {response.status_code}) return False except Exception as e: print(fHealth check failed: {e}) return False if __name__ __main__: if check_health(): sys.exit(0) # 健康返回0 else: sys.exit(1) # 不健康返回15.3 配置自动伸缩组以某云平台为例配置自动伸缩组1. 创建启动配置# 使用刚才创建的自定义镜像 # 选择实例类型根据gte-base-zh的资源需求选择 # CPU密集型选择计算优化型实例 # 内存要求gte-base-zh需要约2-4GB内存 # 建议c6i.xlarge (4vCPU, 8GB内存) 或类似规格2. 创建伸缩组{ 伸缩组名称: gte-base-zh-cluster, 最小实例数: 1, // 始终保留1个按需实例 最大实例数: 10, // 最大扩展到10个实例 期望实例数: 2, // 平时保持2个实例 混合实例策略: { 按需实例基础: 1, // 至少1个按需实例 Spot实例占比: 70, // 70%使用Spot实例 实例类型多样性: [c6i.xlarge, c6a.xlarge, c5.xlarge] // 多种实例类型提高Spot可用性 }, 多可用区: true // 跨可用区部署提高可用性 }3. 配置伸缩策略# 基于CPU使用率的策略 # 当平均CPU 70%持续5分钟扩容1个实例 # 当平均CPU 30%持续10分钟缩容1个实例 # 基于请求量的策略 # 当每分钟请求数 1000持续3分钟扩容2个实例 # 当每分钟请求数 200持续10分钟缩容1个实例 # 基于时间的策略 # 工作日 8:00: 扩容到5个实例 # 工作日 20:00: 缩容到2个实例 # 周末全天: 保持1个实例5.4 配置负载均衡和健康检查负载均衡器配置监听器配置: 协议: HTTP 端口: 80 后端端口: 9997 健康检查: 协议: HTTP 路径: /health # 需要Xinference提供健康检查端点 端口: 9997 间隔: 30秒 超时: 5秒 健康阈值: 2 不健康阈值: 3 会话保持: 启用 持续时间: 3600秒在Xinference中添加健康检查端点 我们需要修改Xinference的启动添加一个简单的健康检查接口# 在启动脚本中添加Flask应用提供健康检查 from flask import Flask import threading app Flask(__name__) app.route(/health) def health_check(): return {status: healthy, service: gte-base-zh}, 200 def start_health_server(): app.run(host0.0.0.0, port8080) # 在新线程中启动健康检查服务 health_thread threading.Thread(targetstart_health_server) health_thread.daemon True health_thread.start()6. 成本效益分析与优化建议部署完成后我们需要量化这个方案到底能省多少钱以及如何进一步优化。6.1 成本对比分析假设我们有一个gte-base-zh服务流量模式如下传统方案固定2个按需实例实例类型: c6i.xlarge (4vCPU, 8GB内存) 按需价格: $0.17/小时 月成本: 2实例 × $0.17 × 24小时 × 30天 $244.80 年成本: $244.80 × 12 $2,937.60弹性方案1个按需 Spot实例弹性伸缩基础实例: 1个按需实例始终运行 按需实例成本: 1 × $0.17 × 24 × 30 $122.40/月 Spot实例使用估算: - 工作日白天10小时/天: 平均2个Spot实例 - 其他时间: 平均0.5个Spot实例 Spot价格: $0.06/小时按需价格的35% Spot实例月成本: 工作日: 20天 × 10小时 × 2实例 × $0.06 $24.00 其他时间: 20天 × 14小时 × 0.5实例 × $0.06 $8.40 周末: 8天 × 24小时 × 0.5实例 × $0.06 $5.76 总Spot成本: $24.00 $8.40 $5.76 $38.16 总月成本: $122.40 $38.16 $160.56成本节省月节省: $244.80 - $160.56 $84.24 节省比例: 34.4% 年节省: $84.24 × 12 $1,010.88这还只是保守估计实际中如果流量波动更大或者Spot实例价格更低节省可能达到50%以上。6.2 性能与成本平衡点在实际运营中我们需要在性能和成本之间找到平衡关键指标监控响应时间P9595%的请求在多少毫秒内完成错误率请求失败的比例实例中断率Spot实例被回收的频率扩容延迟从触发扩容到实例就绪的时间优化建议1. 选择合适的实例类型gte-base-zh的资源需求分析 - CPU: 中等需求4核足够 - 内存: 模型加载后约2-3GB建议8GB以上 - 网络: 中等主要传输文本和向量 - 存储: 模型文件约500MB建议SSD 推荐实例类型 - 计算优化型: c6i.xlarge, c6a.xlarge - 通用型: m6i.xlarge (如果内存需求更高) 避免: 内存优化型、存储优化型成本高不匹配需求2. 设置合理的伸缩阈值扩容策略: - 指标: CPU使用率 - 阈值: 65% (留出缓冲时间) - 持续时间: 3分钟 (避免瞬时峰值误触发) - 冷却时间: 5分钟 (避免频繁伸缩) 缩容策略: - 指标: CPU使用率 - 阈值: 25% (确保有足够冗余) - 持续时间: 10分钟 (确认流量确实下降) - 冷却时间: 10分钟3. 混合实例策略优化{ 按需实例比例: 20%-30%, // 保证基础可用性 Spot实例多样性: [ c6i.xlarge, // 主要类型 c6a.xlarge, // 备选类型1 c5.xlarge // 备选类型2 ], Spot最大价格: 按需价格的60%, // 平衡成本和中断风险 容量优化策略: 最低价格优先 // 优先选择最便宜的实例类型 }6.3 高级优化技巧1. 预测性伸缩 使用历史流量数据训练简单的预测模型提前扩容应对预期高峰# 简化的预测逻辑示例 def predict_traffic(historical_data, current_trend): # 基于时间序列分析预测未来流量 # 工作日模式、周末模式、季节性趋势等 pass # 在流量高峰前30分钟提前扩容 schedule_scaling(actionscale_out, instance_count2, execute_time08:30) # 在9:00高峰前准备好2. 分级响应策略 根据请求优先级采取不同的处理策略高优先级请求实时处理保证响应时间中优先级请求可以短暂排队1秒低优先级请求可以延迟处理或批量处理3. 冷启动优化 Spot实例启动后需要加载模型这需要时间。优化方法使用预热的自定义镜像模型已部分加载实施渐进式流量切换新实例先接收少量流量保持最小数量的“热”实例7. 监控、告警与故障处理弹性架构带来了成本优势也增加了运维复杂度。完善的监控和故障处理机制至关重要。7.1 关键监控指标资源层面监控CPU使用率: 告警阈值: 80%持续5分钟 优化建议: 考虑扩容或优化代码 内存使用率: 告警阈值: 85%持续5分钟 优化建议: 检查内存泄漏考虑使用更大内存实例 磁盘IO: 告警阈值: 读写延迟 100ms 优化建议: 使用更高性能的存储业务层面监控请求量(QPS): 正常范围: 根据业务特点设定 突然下降: 可能服务异常 突然上升: 可能需要扩容 响应时间(P95): 告警阈值: 500ms 优化建议: 优化模型或代码增加实例 错误率: 告警阈值: 1% 优化建议: 检查日志定位问题成本监控Spot实例中断率: 正常范围: 5% 过高: 考虑调整竞价策略或使用更多按需实例 资源利用率: 目标: 40%-70% 过低: 考虑缩容或使用更小规格实例 过高: 考虑扩容或优化7.2 告警配置配置关键告警及时发现和处理问题紧急告警需要立即处理1. 服务完全不可用 - 条件: 所有实例健康检查失败 - 动作: 自动重启实例通知运维人员 2. Spot实例大规模中断 - 条件: 5分钟内超过50%的Spot实例中断 - 动作: 自动增加按需实例比例通知运维人员 3. 响应时间严重恶化 - 条件: P95响应时间 1秒持续5分钟 - 动作: 自动扩容通知开发人员预警需要关注1. 资源使用率持续偏高 - 条件: CPU 70%持续15分钟 - 动作: 发送预警邮件准备手动干预 2. 成本异常增长 - 条件: 日成本比平时高30% - 动作: 分析原因调整策略 3. Spot实例价格波动 - 条件: Spot价格 按需价格的80% - 动作: 考虑切换到按需实例7.3 故障处理预案即使有完善的监控故障仍可能发生。准备好处理预案Spot实例中断处理def handle_spot_interruption(instance_id, interruption_notice): 处理Spot实例中断 # 1. 记录中断事件 log_interruption(instance_id, interruption_notice) # 2. 从负载均衡器移除该实例 elb.deregister_instance(instance_id) # 3. 检查是否需要启动新实例 current_capacity asg.get_current_capacity() desired_capacity asg.get_desired_capacity() if current_capacity desired_capacity: # 自动伸缩组会自动启动新实例 pass else: # 手动触发扩容 asg.set_desired_capacity(desired_capacity 1) # 4. 发送通知 send_notification(fSpot实例 {instance_id} 被中断已触发替换)服务降级策略 当资源严重不足时可以考虑服务降级降低向量维度从768维降到384维如果模型支持缓存热门查询对常见查询结果缓存限制非关键功能暂停后台批量处理任务返回简化结果在极端情况下返回近似结果灾难恢复计划多区域部署在另一个区域部署备用集群定期备份备份模型文件、配置和数据一键切换准备好切换到备用区域的脚本演练测试定期进行故障切换演练8. 总结通过Spot实例和自动伸缩的结合我们为gte-base-zh模型服务构建了一个既经济又弹性的部署方案。让我们回顾一下这个方案的核心价值成本效益显著节省30%-70%的计算成本具体取决于流量模式和Spot实例价格资源利用率从可能低于30%提升到40%-70%按实际使用付费避免资源闲置浪费弹性应对流量自动应对日常的峰谷波动快速响应突发流量保证服务稳定性智能缩容在低谷期进一步降低成本运维自动化减少人工干预降低运维负担基于监控的智能决策比人工更及时准确完善的处理机制保障服务高可用实施建议从小规模开始先在一个非关键服务上试点验证方案可行性逐步优化根据实际监控数据调整伸缩策略和实例配置建立预警机制设置合理的监控告警及时发现和处理问题定期评估每月分析成本效益持续优化策略最后的重要提醒Spot实例虽然便宜但有中断风险关键业务需要保留足够的按需实例自动伸缩不是“设置完就忘”需要持续监控和优化成本优化不能以牺牲稳定性为代价找到合适的平衡点不同的业务场景可能需要不同的优化策略本文方案需要根据实际情况调整gte-base-zh作为一个优秀的文本嵌入模型在很多业务场景中都能发挥重要作用。通过合理的部署架构优化我们不仅能发挥它的技术价值还能控制好运营成本让技术投入产生更大的业务回报。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2535563.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…