DeerFlow部署案例:DeerFlow与Prometheus+Grafana监控体系集成

news2026/5/1 0:46:08
DeerFlow部署案例DeerFlow与PrometheusGrafana监控体系集成1. 引言当深度研究助理遇上专业监控想象一下你有一个不知疲倦的深度研究助理——DeerFlow。它能帮你搜索信息、分析数据、撰写报告甚至生成播客。但问题是你怎么知道它是否在高效工作有没有遇到瓶颈资源消耗是否正常这就是我们今天要解决的问题。本文将带你一步步将DeerFlow这个强大的AI研究框架与业界标准的PrometheusGrafana监控体系集成起来。通过这次集成你将能够实时监控DeerFlow的各项运行指标可视化展示研究任务的执行状态和性能数据及时发现潜在的性能瓶颈和异常情况优化配置基于数据驱动的决策无论你是技术负责人、运维工程师还是对AI系统稳定性有要求的开发者这套监控方案都能让你对DeerFlow的运行状况了如指掌。2. 认识DeerFlow你的个人深度研究助理在开始监控之前我们先简单了解一下DeerFlow到底是什么。2.1 DeerFlow的核心能力DeerFlow不是一个简单的聊天机器人而是一个完整的深度研究系统。它基于LangGraph框架构建采用了多智能体协作的架构协调器负责接收用户请求协调整个研究流程规划器制定研究计划分解复杂任务研究团队包括研究员和编码员分别负责信息搜集和代码执行报告员整理研究成果生成最终的报告或播客这个系统集成了多种工具搜索引擎支持Tavily、Brave Search等网络爬虫Python代码执行环境MCP模型上下文协议服务文本转语音服务火山引擎TTS2.2 DeerFlow的典型应用场景DeerFlow能帮你做什么这里有几个实际例子市场分析自动搜集竞品信息生成分析报告技术研究跟踪最新技术动态整理技术文档内容创作基于研究结果生成播客脚本并转换为语音数据洞察分析复杂数据集提供可视化见解现在你已经了解了DeerFlow的能力接下来我们要为它装上眼睛和仪表盘让它的一切运行状态都变得透明可见。3. 监控体系设计为什么需要PrometheusGrafana在集成之前我们先理解一下为什么选择PrometheusGrafana这套组合。3.1 传统监控方式的局限性如果没有专业的监控体系你可能会遇到这些问题黑盒运行只知道DeerFlow在运行但不知道内部状态问题滞后等到用户反馈才发现系统异常性能盲区不清楚哪个环节是性能瓶颈资源浪费无法准确评估资源使用情况可能导致过度配置或资源不足3.2 PrometheusGrafana的优势这套监控组合为什么适合DeerFlowPrometheus的特点专门为云原生应用设计轻量高效支持多维数据模型灵活查询强大的告警规则引擎与各种应用集成简单Grafana的特点丰富的可视化图表类型灵活的仪表盘配置支持多种数据源社区活跃插件丰富组合优势Prometheus负责数据采集和存储Grafana负责数据可视化和展示两者结合形成完整的监控闭环3.3 监控指标设计思路针对DeerFlow的特点我们需要监控以下几个维度的指标系统资源指标CPU使用率内存使用量磁盘I/O网络流量应用性能指标请求响应时间任务执行时长并发任务数错误率统计业务逻辑指标研究任务完成数报告生成成功率搜索API调用次数代码执行统计有了清晰的设计思路接下来我们开始具体的实施步骤。4. 环境准备与组件部署在开始集成之前确保你已经按照官方文档成功部署了DeerFlow。这里假设你的DeerFlow运行在标准的Linux环境中。4.1 部署Prometheus首先我们来部署Prometheus监控服务器。步骤1下载Prometheus# 创建监控目录 mkdir -p /opt/monitoring cd /opt/monitoring # 下载最新版Prometheus wget https://github.com/prometheus/prometheus/releases/download/v2.51.0/prometheus-2.51.0.linux-amd64.tar.gz # 解压文件 tar xvf prometheus-2.51.0.linux-amd64.tar.gz cd prometheus-2.51.0.linux-amd64步骤2配置Prometheus创建配置文件prometheus.ymlglobal: scrape_interval: 15s # 每15秒采集一次数据 evaluation_interval: 15s # 每15秒评估一次告警规则 alerting: alertmanagers: - static_configs: - targets: # - alertmanager:9093 rule_files: # - first_rules.yml # - second_rules.yml scrape_configs: # 监控Prometheus自身 - job_name: prometheus static_configs: - targets: [localhost:9090] # 监控Node Exporter系统指标 - job_name: node static_configs: - targets: [localhost:9100] # 监控DeerFlow应用 - job_name: deerflow static_configs: - targets: [localhost:8000] # DeerFlow的监控端口 metrics_path: /metrics # 指标端点路径步骤3启动Prometheus# 以后台方式启动 nohup ./prometheus --config.fileprometheus.yml prometheus.log 21 # 检查是否启动成功 curl http://localhost:9090/metrics4.2 部署Node ExporterNode Exporter用于采集系统级别的指标。# 下载Node Exporter cd /opt/monitoring wget https://github.com/prometheus/node_exporter/releases/download/v1.7.0/node_exporter-1.7.0.linux-amd64.tar.gz tar xvf node_exporter-1.7.0.linux-amd64.tar.gz cd node_exporter-1.7.0.linux-amd64 # 启动Node Exporter nohup ./node_exporter node_exporter.log 21 # 验证 curl http://localhost:9100/metrics4.3 部署Grafana接下来部署可视化工具Grafana。# 添加Grafana仓库 sudo apt-get install -y software-properties-common sudo add-apt-repository deb https://packages.grafana.com/oss/deb stable main wget -q -O - https://packages.grafana.com/gpg.key | sudo apt-key add - # 安装Grafana sudo apt-get update sudo apt-get install -y grafana # 启动Grafana服务 sudo systemctl daemon-reload sudo systemctl start grafana-server sudo systemctl enable grafana-server # 检查状态 sudo systemctl status grafana-server现在三个核心组件都已经部署完成。接下来是最关键的一步让DeerFlow暴露监控指标。5. DeerFlow监控指标暴露要让Prometheus能够采集DeerFlow的指标我们需要在DeerFlow中添加监控端点。5.1 添加Prometheus客户端依赖首先在DeerFlow的Python环境中安装必要的监控库# 进入DeerFlow的工作目录 cd /root/workspace # 安装Prometheus Python客户端 pip install prometheus-client5.2 创建监控模块在DeerFlow项目中创建一个新的监控模块monitoring.py DeerFlow监控模块 用于暴露Prometheus格式的监控指标 from prometheus_client import start_http_server, Counter, Gauge, Histogram, Summary import time import threading from datetime import datetime import psutil import os class DeerFlowMetrics: DeerFlow监控指标收集器 def __init__(self, port8000): self.port port # 定义业务指标 self.requests_total Counter( deerflow_requests_total, 总请求数, [endpoint, method] ) self.research_tasks_total Counter( deerflow_research_tasks_total, 研究任务总数, [task_type, status] ) self.task_duration Histogram( deerflow_task_duration_seconds, 任务执行时间, [task_type], buckets(0.1, 0.5, 1.0, 2.0, 5.0, 10.0, 30.0, 60.0, float(inf)) ) self.active_tasks Gauge( deerflow_active_tasks, 当前活跃任务数 ) self.error_total Counter( deerflow_errors_total, 错误总数, [error_type] ) # 系统资源指标 self.cpu_usage Gauge( deerflow_cpu_usage_percent, CPU使用率百分比 ) self.memory_usage Gauge( deerflow_memory_usage_bytes, 内存使用量字节 ) # 启动指标收集线程 self._start_metrics_server() self._start_system_metrics_collector() def _start_metrics_server(self): 启动Prometheus指标服务器 def run_server(): start_http_server(self.port) print(f[{datetime.now()}] 监控指标服务器已启动端口: {self.port}) server_thread threading.Thread(targetrun_server, daemonTrue) server_thread.start() def _start_system_metrics_collector(self): 启动系统指标收集器 def collect_system_metrics(): while True: try: # 收集CPU使用率 cpu_percent psutil.cpu_percent(interval1) self.cpu_usage.set(cpu_percent) # 收集内存使用量 process psutil.Process(os.getpid()) memory_info process.memory_info() self.memory_usage.set(memory_info.rss) except Exception as e: print(f收集系统指标时出错: {e}) time.sleep(5) collector_thread threading.Thread(targetcollect_system_metrics, daemonTrue) collector_thread.start() def record_request(self, endpoint, method): 记录请求 self.requests_total.labels(endpointendpoint, methodmethod).inc() def record_research_task(self, task_type, statuscompleted): 记录研究任务 self.research_tasks_total.labels(task_typetask_type, statusstatus).inc() def record_task_duration(self, task_type, duration): 记录任务执行时间 self.task_duration.labels(task_typetask_type).observe(duration) def set_active_tasks(self, count): 设置活跃任务数 self.active_tasks.set(count) def record_error(self, error_type): 记录错误 self.error_total.labels(error_typeerror_type).inc() # 创建全局监控实例 metrics DeerFlowMetrics()5.3 集成监控到DeerFlow主程序找到DeerFlow的主程序文件通常是main.py或app.py添加监控集成# 在文件开头导入监控模块 from monitoring import metrics import time from functools import wraps def monitor_task(task_type): 监控装饰器用于监控任务执行 def decorator(func): wraps(func) def wrapper(*args, **kwargs): start_time time.time() metrics.set_active_tasks(metrics.active_tasks._value.get() 1) try: result func(*args, **kwargs) duration time.time() - start_time metrics.record_task_duration(task_type, duration) metrics.record_research_task(task_type, completed) return result except Exception as e: metrics.record_research_task(task_type, failed) metrics.record_error(type(e).__name__) raise finally: metrics.set_active_tasks(max(0, metrics.active_tasks._value.get() - 1)) return wrapper return decorator # 在关键函数上添加监控装饰器 monitor_task(web_search) async def perform_web_search(query: str): 执行网络搜索 # 原有的搜索逻辑 metrics.record_request(/api/search, POST) # ... 搜索实现 ... monitor_task(report_generation) async def generate_report(research_data: dict): 生成研究报告 metrics.record_request(/api/report, POST) # ... 报告生成逻辑 ... monitor_task(podcast_generation) async def generate_podcast(content: str): 生成播客 metrics.record_request(/api/podcast, POST) # ... 播客生成逻辑 ...5.4 验证监控端点修改完成后重启DeerFlow服务然后验证监控端点是否正常工作# 重启DeerFlow服务根据你的部署方式 cd /root/workspace # 如果使用systemd sudo systemctl restart deerflow # 或者如果直接运行 pkill -f python.*deerflow nohup python main.py deerflow.log 21 # 验证监控端点 curl http://localhost:8000/metrics如果一切正常你应该能看到Prometheus格式的监控指标输出。6. Grafana仪表盘配置现在DeerFlow的监控指标已经可以采集了接下来我们在Grafana中创建漂亮的监控仪表盘。6.1 配置数据源打开浏览器访问http://你的服务器IP:3000使用默认账号密码登录admin/admin首次登录会要求修改密码进入后点击左侧菜单的Configuration → Data Sources点击Add data source选择Prometheus配置Prometheus地址http://localhost:9090点击Save Test应该显示Data source is working6.2 创建DeerFlow监控仪表盘我们将创建一个包含多个面板的完整监控仪表盘。面板1系统资源概览面板标题系统资源使用情况 查询语句 - CPU使用率100 - (avg by(instance)(irate(node_cpu_seconds_total{modeidle}[5m])) * 100) - 内存使用率(node_memory_MemTotal_bytes - node_memory_MemAvailable_bytes) / node_memory_MemTotal_bytes * 100 - 磁盘使用率node_filesystem_avail_bytes / node_filesystem_size_bytes * 100 可视化Stat Gauge面板2DeerFlow业务指标面板标题业务指标监控 查询语句 - 总请求数rate(deerflow_requests_total[5m]) - 活跃任务数deerflow_active_tasks - 任务成功率sum(rate(deerflow_research_tasks_total{statuscompleted}[5m])) / sum(rate(deerflow_research_tasks_total[5m])) - 错误率sum(rate(deerflow_errors_total[5m])) / sum(rate(deerflow_requests_total[5m])) 可视化Time series Bar gauge面板3任务执行时间分布面板标题任务执行时间分析 查询语句 - 平均执行时间rate(deerflow_task_duration_seconds_sum[5m]) / rate(deerflow_task_duration_seconds_count[5m]) - P95执行时间histogram_quantile(0.95, sum(rate(deerflow_task_duration_seconds_bucket[5m])) by (le, task_type)) - 按任务类型分组sum by(task_type)(rate(deerflow_task_duration_seconds_count[5m])) 可视化Heatmap Time series面板4实时请求监控面板标题实时请求流量 查询语句 - 请求QPSsum(rate(deerflow_requests_total[1m])) - 按端点分布sum by(endpoint)(rate(deerflow_requests_total[5m])) - 按方法分布sum by(method)(rate(deerflow_requests_total[5m])) 可视化Time series Pie chart6.3 创建告警规则在Grafana中设置关键告警CPU使用率过高告警条件CPU使用率 80% 持续5分钟通知渠道邮件/钉钉/企业微信内存使用率过高告警条件内存使用率 85% 持续5分钟通知渠道邮件/钉钉/企业微信错误率升高告警条件错误率 5% 持续3分钟通知渠道邮件/钉钉/企业微信任务积压告警条件活跃任务数 10 持续2分钟通知渠道邮件/钉钉/企业微信6.4 仪表盘布局优化将相关面板分组创建有逻辑的布局第一行系统健康度CPU、内存、磁盘、网络 第二行业务核心指标请求量、成功率、错误率 第三行性能分析响应时间、任务分布 第四行实时监控请求流量、活跃任务保存仪表盘命名为DeerFlow生产监控设置自动刷新间隔为15秒。7. 实战演示监控DeerFlow研究任务让我们通过一个实际的例子看看监控系统如何工作。7.1 模拟研究任务创建一个测试脚本模拟用户使用DeerFlow进行研究# test_deerflow_monitoring.py import requests import time import random import threading def simulate_research_task(task_id): 模拟一个研究任务 print(f[任务{task_id}] 开始执行...) # 模拟不同类型的任务 task_types [market_analysis, tech_research, content_creation, data_analysis] task_type random.choice(task_types) # 记录任务开始 start_time time.time() try: # 模拟任务执行时间1-10秒 execution_time random.uniform(1, 10) time.sleep(execution_time) # 模拟成功率90%成功 if random.random() 0.9: print(f[任务{task_id}] 完成类型: {task_type}, 耗时: {execution_time:.2f}秒) return True else: print(f[任务{task_id}] 失败类型: {task_type}) return False except Exception as e: print(f[任务{task_id}] 异常: {e}) return False finally: end_time time.time() duration end_time - start_time print(f[任务{task_id}] 总耗时: {duration:.2f}秒) def run_concurrent_tasks(num_tasks20): 并发运行多个任务 threads [] results [] for i in range(num_tasks): thread threading.Thread(targetlambda idxi: results.append(simulate_research_task(idx))) threads.append(thread) thread.start() time.sleep(random.uniform(0.1, 0.5)) # 随机间隔启动 # 等待所有任务完成 for thread in threads: thread.join() success_count sum(1 for r in results if r) print(f\n任务完成统计:) print(f总任务数: {num_tasks}) print(f成功数: {success_count}) print(f失败数: {num_tasks - success_count}) print(f成功率: {success_count/num_tasks*100:.1f}%) if __name__ __main__: print(开始模拟DeerFlow研究任务...) run_concurrent_tasks(20)7.2 观察监控数据变化运行测试脚本后打开Grafana仪表盘观察以下变化请求量上升deerflow_requests_total指标会增加活跃任务数波动deerflow_active_tasks会显示并发任务数任务执行时间分布deerflow_task_duration_seconds会记录每个任务的耗时成功率统计成功和失败的任务都会被记录系统资源使用CPU和内存使用率会根据负载变化7.3 分析监控数据通过监控数据我们可以获得以下洞察性能瓶颈识别如果某种类型的任务执行时间明显较长可能需要优化资源规划依据根据峰值负载调整服务器配置异常检测及时发现错误率升高的异常情况容量规划基于历史数据预测未来资源需求8. 高级监控技巧与优化建议基本的监控已经搭建完成这里还有一些进阶技巧可以帮助你更好地利用监控系统。8.1 自定义业务指标除了系统指标你还可以添加更多业务相关的监控指标# 在monitoring.py中添加更多业务指标 # 研究深度指标 research_depth Histogram( deerflow_research_depth, 研究深度引用来源数量, buckets(1, 3, 5, 10, 20, 50, 100, float(inf)) ) # 报告质量指标 report_quality Gauge( deerflow_report_quality_score, 报告质量评分, [report_type] ) # 用户满意度指标可通过反馈机制收集 user_satisfaction Gauge( deerflow_user_satisfaction, 用户满意度评分 ) # 成本监控指标 api_cost Counter( deerflow_api_cost_units, API调用成本按提供商, [provider] )8.2 监控数据持久化与备份默认情况下Prometheus数据保留15天。对于长期趋势分析可以考虑延长保留时间修改Prometheus配置# 在prometheus.yml中添加 storage: tsdb: retention: 90d # 保留90天设置远程存储将数据备份到对象存储remote_write: - url: http://remote-storage:8086/api/v1/prom/write定期备份编写备份脚本# backup_prometheus.sh #!/bin/bash BACKUP_DIR/backup/prometheus DATE$(date %Y%m%d) # 停止Prometheus如果允许短暂停机 # systemctl stop prometheus # 备份数据目录 tar -czf $BACKUP_DIR/prometheus_data_$DATE.tar.gz /opt/monitoring/prometheus/data/ # 备份配置文件 cp /opt/monitoring/prometheus/prometheus.yml $BACKUP_DIR/prometheus_config_$DATE.yml # 重新启动 # systemctl start prometheus8.3 自动化运维集成将监控与自动化运维工具集成与告警系统集成将Grafana告警发送到OpsGenie、PagerDuty等与CI/CD集成在部署前后检查监控指标与自动化扩缩容集成基于监控指标自动调整资源# 示例基于CPU使用率自动扩缩容 import boto3 def auto_scale_based_on_metrics(): # 查询当前CPU使用率 cpu_usage query_prometheus(avg(rate(node_cpu_seconds_total[5m])) * 100) if cpu_usage 80: # 触发扩容 scale_out() elif cpu_usage 30: # 触发缩容 scale_in()8.4 监控数据可视化最佳实践颜色编码标准化绿色正常状态黄色警告状态红色错误状态关键指标突出显示使用大字体显示核心指标添加阈值线显示正常范围使用趋势图显示历史变化仪表盘分层设计第一层概览仪表盘高管视图第二层技术仪表盘运维视图第三层详情仪表盘开发视图9. 常见问题与解决方案在实际部署和使用过程中你可能会遇到一些问题。这里列出了一些常见问题及其解决方法。9.1 Prometheus无法采集指标问题现象Prometheus targets页面显示DeerFlow为DOWN状态。可能原因和解决方案网络连接问题# 检查端口是否开放 netstat -tlnp | grep 8000 # 检查防火墙规则 sudo ufw status sudo ufw allow 8000/tcpDeerFlow监控端点未启动# 检查DeerFlow进程 ps aux | grep deerflow # 检查监控端点 curl -v http://localhost:8000/metrics # 查看日志 tail -f /root/workspace/deerflow.logPrometheus配置错误# 检查prometheus.yml配置 scrape_configs: - job_name: deerflow static_configs: - targets: [localhost:8000] # 确保IP和端口正确 metrics_path: /metrics # 确保路径正确 scrape_interval: 15s # 采集间隔9.2 Grafana无法显示数据问题现象Grafana面板显示No data。排查步骤检查数据源连接# 在Grafana中测试数据源 # 点击Data Sources → Prometheus → Save Test # 应该显示Data source is working检查查询语句# 在Grafana Explore页面测试查询 # 基础查询测试 up{jobdeerflow} # 查看所有可用指标 {__name__~.}检查时间范围确保查询的时间范围包含数据时间检查时区设置是否正确9.3 监控数据不准确问题现象监控数据显示的数值与实际不符。可能原因指标定义错误# 检查指标类型是否正确 # Counter只增不减适合计数 # Gauge可增可减适合当前值 # Histogram适合分布统计标签使用不当# 避免标签值过多导致基数爆炸 # 错误示例使用用户ID作为标签 requests_total.labels(user_iduser_id).inc() # 可能导致数百万个时间序列 # 正确示例使用有限的分组 requests_total.labels(user_typeuser_type).inc()采集频率问题# 调整Prometheus采集频率 scrape_configs: - job_name: deerflow scrape_interval: 15s # 根据需求调整 scrape_timeout: 10s # 超时时间9.4 性能影响问题问题现象添加监控后DeerFlow性能下降。优化建议减少指标数量# 只监控关键指标避免过度监控 # 删除不必要的指标优化采集频率# 降低非关键指标的采集频率 - job_name: detailed_metrics scrape_interval: 60s # 改为60秒采集一次使用批处理# 批量更新指标减少锁竞争 def batch_update_metrics(metrics_data): with metrics_lock: for name, value in metrics_data.items(): metrics_registry[name].set(value)9.5 存储空间不足问题现象Prometheus磁盘使用快速增长。解决方案调整数据保留策略# prometheus.yml storage: tsdb: retention: 15d # 减少保留天数数据压缩# 手动触发数据压缩 curl -XPOST http://localhost:9090/api/v1/admin/tsdb/clean_tombstones使用远程存储remote_write: - url: http://thanos:10908/api/v1/receive remote_read: - url: http://thanos:10908/api/v1/query10. 总结与最佳实践通过本文的步骤你已经成功将DeerFlow与PrometheusGrafana监控体系集成。让我们回顾一下关键要点和最佳实践。10.1 核心收获监控价值实现你现在可以实时了解DeerFlow的运行状态包括系统资源、业务指标、性能数据等。问题快速定位当出现性能下降或错误时可以通过监控数据快速定位问题根源。数据驱动决策基于历史监控数据可以做出更合理的容量规划和优化决策。自动化运维基础为后续的自动化扩缩容、智能告警等高级功能奠定了基础。10.2 持续优化建议定期审查监控指标每月审查一次监控指标的有效性删除不再使用的指标添加新的业务指标优化查询语句提高查询效率建立监控告警闭环告警必须有人响应和处理建立告警升级机制定期回顾告警减少误报监控数据驱动优化分析性能瓶颈针对性优化基于使用模式调整资源配置预测未来需求提前规划安全考虑限制监控端点的访问权限使用HTTPS加密监控数据传输定期更新监控组件版本10.3 扩展思考这套监控体系不仅适用于DeerFlow还可以扩展到其他AI应用多实例监控如果你部署了多个DeerFlow实例可以使用服务发现自动监控所有实例。跨系统监控将DeerFlow监控与其他系统数据库、缓存、消息队列监控整合获得全栈视图。业务指标监控除了技术指标还可以监控业务指标如用户满意度、任务完成质量等。成本监控监控API调用成本、计算资源成本优化成本效益。监控不是一次性的工作而是一个持续的过程。随着DeerFlow功能的发展和业务需求的变化你的监控体系也需要不断演进。记住好的监控系统应该像一双敏锐的眼睛让你对系统的运行状态了如指掌而不是成为系统的负担。现在你已经拥有了一个专业的DeerFlow监控系统。开始使用它观察数据从中学习并不断优化你的DeerFlow部署吧获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2532188.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…