YOLO12检测结果后处理:NMS阈值调整与多框融合策略

news2026/5/17 4:13:35
YOLO12检测结果后处理NMS阈值调整与多框融合策略1. 引言为什么检测框需要“精修”当你用YOLO12跑完一张图片看到屏幕上密密麻麻的检测框时是不是觉得大功告成了先别急这其实只是完成了目标检测的第一步——模型推理。真正决定最终检测效果好坏的关键往往藏在你看不见的后处理环节。想象一下这个场景你用YOLO12检测一张街景照片同一个行人身上可能同时出现了三四个重叠的检测框每个框的置信度都差不多。这时候模型就“犯难”了——到底该相信哪个框如果全都要画面就会变得杂乱无章如果只选一个又怕选错。这就是后处理要解决的核心问题。YOLO12的原始输出是一堆“候选框”每个框都带着自己的位置、大小和置信度。后处理的任务就是从这堆候选框中筛选出最准确、最不重复的最终结果。今天我们就来深入聊聊YOLO12检测结果后处理的两个关键技术NMS阈值调整和多框融合策略。我会用最直白的方式带你理解它们的工作原理并通过实际代码演示如何调参让你的检测结果从“能用”变成“好用”。2. 理解YOLO12的输出检测框从哪来在深入后处理之前我们先要搞清楚YOLO12到底输出了什么。很多人以为模型直接给出最终结果其实中间还有好几步。2.1 YOLO12的原始输出格式当你调用YOLO12的predict方法后得到的原始结果大概是这样的结构# 假设这是YOLO12对一张图片的原始检测结果 raw_detections [ # 每个检测框是一个列表[x1, y1, x2, y2, confidence, class_id] [100, 150, 200, 300, 0.95, 0], # 类别0比如“人”置信度0.95 [105, 155, 205, 305, 0.88, 0], # 同一个人的另一个框置信度0.88 [110, 160, 210, 310, 0.82, 0], # 还是同一个人置信度0.82 [400, 200, 500, 350, 0.91, 2], # 类别2比如“车”置信度0.91 [405, 205, 505, 355, 0.79, 2], # 同一辆车的另一个框 # ... 可能还有几十甚至上百个这样的框 ]看到问题了吗同一个目标模型可能会给出多个检测框。这是因为YOLO12的检测头在不同位置、不同尺度上都做了预测确保不会漏掉目标。但这也带来了新问题重复框。2.2 置信度阈值第一道筛选在进入复杂的NMS之前我们先用一个简单的方法过滤掉明显不靠谱的检测框def filter_by_confidence(detections, conf_threshold0.25): 根据置信度阈值过滤检测框 filtered [] for det in detections: if det[4] conf_threshold: # det[4]是置信度 filtered.append(det) return filtered # 使用默认阈值0.25过滤 filtered_dets filter_by_confidence(raw_detections, conf_threshold0.25) print(f原始检测框数: {len(raw_detections)}) print(f过滤后检测框数: {len(filtered_dets)})这个conf_threshold参数就是你在WebUI里看到的“置信度阈值”滑块。调高它只有高置信度的框能留下调低它更多低置信度的框也会被保留。但光靠置信度过滤还不够。看看上面的例子过滤后同一个目标还是可能有多个框。这时候就需要NMS出场了。3. NMS让重复框“优胜劣汰”NMSNon-Maximum Suppression非极大值抑制是目标检测后处理的“标准配置”。它的核心思想很简单同一个目标只留最好的那个框。3.1 NMS的工作原理一个简单的比喻想象一下公司招聘同一个岗位收到了10份简历。NMS就像HR的筛选流程按分数排序把所有简历按综合评分从高到低排序选出最高分录用评分最高的候选人淘汰相似者把和已录用者背景、能力太相似的其他简历都扔掉重复流程在剩下的简历中继续选最高分直到没有简历可选在检测框的场景中“相似”就是用IoU交并比来衡量的。3.2 IoU判断两个框有多像IoUIntersection over Union计算两个矩形框的重叠程度def calculate_iou(box1, box2): 计算两个边界框的IoU交并比 # box格式: [x1, y1, x2, y2] x1 max(box1[0], box2[0]) y1 max(box1[1], box2[1]) x2 min(box1[2], box2[2]) y2 min(box1[3], box2[3]) # 计算交集面积 intersection max(0, x2 - x1) * max(0, y2 - y1) # 计算各自面积 area1 (box1[2] - box1[0]) * (box1[3] - box1[1]) area2 (box2[2] - box2[0]) * (box2[3] - box2[1]) # 计算并集面积 union area1 area2 - intersection # 避免除零 if union 0: return 0 return intersection / union # 示例计算两个重叠框的IoU box_a [100, 100, 200, 200] box_b [120, 120, 220, 220] iou_score calculate_iou(box_a, box_b) print(f两个框的IoU: {iou_score:.2f}) # 大概0.44一般来说IoU大于0.5就认为两个框检测的是同一个目标。3.3 标准NMS的实现现在我们把置信度过滤和NMS结合起来def standard_nms(detections, iou_threshold0.45): 标准NMS实现 if len(detections) 0: return [] # 按置信度从高到低排序 detections sorted(detections, keylambda x: x[4], reverseTrue) keep [] # 要保留的检测框索引 while len(detections) 0: # 取出置信度最高的框 best_det detections[0] keep.append(best_det) # 移除已选中的框 detections detections[1:] # 如果没有其他框了结束 if len(detections) 0: break # 计算剩余框与最佳框的IoU ious [] for det in detections: iou calculate_iou(best_det[:4], det[:4]) ious.append(iou) # 只保留IoU低于阈值的框即不重叠的框 new_detections [] for i, det in enumerate(detections): if ious[i] iou_threshold: new_detections.append(det) detections new_detections return keep # 使用示例 filtered_dets filter_by_confidence(raw_detections, conf_threshold0.25) final_dets standard_nms(filtered_dets, iou_threshold0.45) print(fNMS后剩余框数: {len(final_dets)})3.4 NMS阈值调参实战找到最佳平衡点NMS的iou_threshold参数是个需要仔细调整的值。调得太高或太低都会有问题def test_nms_thresholds(detections, thresholds): 测试不同NMS阈值的效果 results {} for threshold in thresholds: filtered filter_by_confidence(detections, 0.25) nms_result standard_nms(filtered, iou_thresholdthreshold) # 统计每个类别的检测数量 class_counts {} for det in nms_result: class_id int(det[5]) class_counts[class_id] class_counts.get(class_id, 0) 1 results[threshold] { total_boxes: len(nms_result), class_counts: class_counts } return results # 测试不同阈值 thresholds_to_test [0.3, 0.4, 0.45, 0.5, 0.6, 0.7] results test_nms_thresholds(raw_detections, thresholds_to_test) print(不同NMS阈值的效果对比:) print(阈值 | 总框数 | 说明) print(- * 40) for thresh in thresholds_to_test: info results[thresh] print(f{thresh} | {info[total_boxes]:6d} | , end) if thresh 0.4: print(阈值太低重复框多) elif thresh 0.6: print(阈值太高可能漏检) else: print(适中范围)经验法则密集小目标场景比如人群、车辆密集用较低的IoU阈值0.3-0.4避免漏检大目标稀疏场景比如监控中的单人用较高的IoU阈值0.5-0.6减少误报通用场景0.45是个不错的起点4. 多框融合策略当NMS不够用时标准NMS有个明显的缺点它只保留最好的框完全丢弃其他框。但有时候那些被丢弃的框也包含有用信息。4.1 为什么需要多框融合考虑这种情况一个目标被三个框检测到置信度分别是0.92、0.89、0.85。这三个框的位置略有不同框A更准确覆盖了头部但漏了点脚框B完整覆盖了全身但稍微偏右框C位置最准但框稍微大了点标准NMS只会留下置信度最高的框A但框B和框C的信息就浪费了。多框融合的思路是把这些框的信息合并起来得到一个更准确的最终框。4.2 Weighted Boxes FusionWBF加权框融合WBF是现在比较流行的多框融合方法。它的核心思想是根据置信度给每个框分配权重然后加权平均得到最终框。def weighted_boxes_fusion(detections, iou_threshold0.55, conf_threshold0.01): 加权框融合实现简化版 if len(detections) 0: return [] # 按类别分组处理 classes {} for det in detections: class_id int(det[5]) if class_id not in classes: classes[class_id] [] classes[class_id].append(det) final_boxes [] for class_id, class_dets in classes.items(): # 按置信度排序 class_dets sorted(class_dets, keylambda x: x[4], reverseTrue) # 聚类把IoU高的框分到同一组 clusters [] for det in class_dets: matched False for cluster in clusters: # 检查与聚类中已有框的IoU for cluster_det in cluster: iou calculate_iou(det[:4], cluster_det[:4]) if iou iou_threshold: cluster.append(det) matched True break if matched: break if not matched: clusters.append([det]) # 对每个聚类进行加权融合 for cluster in clusters: if len(cluster) 0: continue total_weight 0 weighted_box [0, 0, 0, 0] # [x1, y1, x2, y2] weighted_conf 0 for det in cluster: weight det[4] # 用置信度作为权重 total_weight weight # 坐标加权累加 for i in range(4): weighted_box[i] det[i] * weight # 置信度加权累加 weighted_conf det[4] * weight # 计算加权平均 if total_weight 0: final_box [coord / total_weight for coord in weighted_box] final_conf weighted_conf / total_weight # 只保留置信度高于阈值的框 if final_conf conf_threshold: final_boxes.append(final_box [final_conf, class_id]) return final_boxes # 使用示例 print(标准NMS结果:, len(standard_nms(filtered_dets, 0.45))) print(WBF融合结果:, len(weighted_boxes_fusion(filtered_dets, 0.55)))4.3 什么时候用WBF什么时候用NMS这不是二选一的问题而是要根据场景选择def choose_post_process_method(scenario, detections): 根据场景选择合适的后处理方法 method_suggestions { crowded: { method: WBF, params: {iou_threshold: 0.5, conf_threshold: 0.1}, reason: 人群密集时多个框能更好定位每个人 }, sparse_large: { method: Standard NMS, params: {iou_threshold: 0.6}, reason: 目标稀疏且大一个框足够准确 }, small_objects: { method: WBF, params: {iou_threshold: 0.4, conf_threshold: 0.05}, reason: 小目标检测不稳定融合多个框提高稳定性 }, real_time: { method: Standard NMS, params: {iou_threshold: 0.45}, reason: NMS计算更快满足实时性要求 }, high_precision: { method: WBF, params: {iou_threshold: 0.55, conf_threshold: 0.01}, reason: 不追求速度时WBF能提供更准确的位置 } } if scenario in method_suggestions: suggestion method_suggestions[scenario] print(f场景: {scenario}) print(f推荐方法: {suggestion[method]}) print(f推荐参数: {suggestion[params]}) print(f理由: {suggestion[reason]}) # 执行推荐的方法 if suggestion[method] Standard NMS: result standard_nms(detections, **suggestion[params]) else: result weighted_boxes_fusion(detections, **suggestion[params]) return result else: print(f未知场景: {scenario}使用默认NMS) return standard_nms(detections, iou_threshold0.45) # 示例处理人群密集场景 crowded_scene_dets [...] # 假设这是人群图片的检测结果 result choose_post_process_method(crowded, crowded_scene_dets)5. 实战在YOLO12镜像中调整后处理参数现在你理解了原理我们来看看怎么在实际的YOLO12镜像中调整这些参数。5.1 通过WebUI快速调整如果你用的是我们提供的YOLO12镜像最简单的调整方式就是通过Web界面访问WebUI打开http://你的实例IP:7860找到参数滑块置信度阈值控制哪些检测框能进入后续处理NMS阈值控制重复框的过滤严格程度实时观察效果调整滑块立即看到检测结果的变化5.2 通过API深度定制对于需要集成到业务系统的场景你可以通过API进行更精细的控制import requests import cv2 import numpy as np def detect_with_custom_params(image_path, conf_thresh0.25, iou_thresh0.45, use_wbfFalse): 调用YOLO12 API使用自定义后处理参数 # 读取图片 with open(image_path, rb) as f: image_data f.read() # 准备请求参数 files {file: (image.jpg, image_data, image/jpeg)} params { conf_threshold: conf_thresh, iou_threshold: iou_thresh, use_wbf: use_wbf # 是否使用WBF替代标准NMS } # 发送请求 response requests.post( http://localhost:8000/predict, filesfiles, dataparams ) if response.status_code 200: result response.json() # 解析结果 detections result[detections] print(f检测到 {len(detections)} 个目标) # 可视化结果 image cv2.imread(image_path) for det in detections: x1, y1, x2, y2 map(int, det[bbox]) conf det[confidence] label det[class] # 画框 cv2.rectangle(image, (x1, y1), (x2, y2), (0, 255, 0), 2) # 添加标签 text f{label}: {conf:.2f} cv2.putText(image, text, (x1, y1-10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2) return image, detections else: print(f请求失败: {response.status_code}) return None, [] # 使用不同参数测试同一张图片 image_path test_image.jpg # 测试1标准参数适合通用场景 img1, dets1 detect_with_custom_params( image_path, conf_thresh0.25, iou_thresh0.45, use_wbfFalse ) # 测试2密集场景参数人群、车辆密集 img2, dets2 detect_with_custom_params( image_path, conf_thresh0.15, # 降低置信度阈值不漏检 iou_thresh0.35, # 降低IoU阈值保留更多框 use_wbfTrue # 使用WBF融合 ) # 测试3精确场景参数需要高准确率 img3, dets3 detect_with_custom_params( image_path, conf_thresh0.5, # 提高置信度阈值减少误报 iou_thresh0.6, # 提高IoU阈值严格去重 use_wbfFalse ) print(f标准参数检测数: {len(dets1)}) print(f密集场景检测数: {len(dets2)}) print(f精确场景检测数: {len(dets3)})5.3 参数调优工作流调参不是瞎试要有方法def parameter_tuning_workflow(image_path, ground_truth): 系统化的参数调优工作流 # 定义要测试的参数组合 param_combinations [ {conf: 0.1, iou: 0.3, wbf: True, desc: 宽松-融合}, {conf: 0.1, iou: 0.3, wbf: False, desc: 宽松-NMS}, {conf: 0.25, iou: 0.45, wbf: False, desc: 标准-NMS}, {conf: 0.25, iou: 0.55, wbf: True, desc: 标准-融合}, {conf: 0.5, iou: 0.6, wbf: False, desc: 严格-NMS}, ] results [] for params in param_combinations: # 使用当前参数检测 _, detections detect_with_custom_params( image_path, conf_threshparams[conf], iou_threshparams[iou], use_wbfparams[wbf] ) # 评估检测结果这里简化了实际需要计算mAP等指标 evaluation evaluate_detections(detections, ground_truth) results.append({ params: params, detections: len(detections), precision: evaluation[precision], recall: evaluation[recall], f1_score: evaluation[f1_score] }) # 找出最佳参数 best_result max(results, keylambda x: x[f1_score]) print(参数调优结果:) print(组合 | 检测数 | 精确率 | 召回率 | F1分数) print(- * 50) for res in results: p res[params] print(f{p[desc]:10} | {res[detections]:6d} | f{res[precision]:.3f} | {res[recall]:.3f} | {res[f1_score]:.3f}) print(f\n最佳参数: {best_result[params][desc]}) print(fF1分数: {best_result[f1_score]:.3f}) return best_result[params] # 简化的评估函数实际应用需要更完整的实现 def evaluate_detections(detections, ground_truth, iou_threshold0.5): 评估检测结果的质量 # 这里简化实现实际需要计算TP、FP、FN等 # 然后计算精确率、召回率、F1分数 return { precision: 0.85, # 示例值 recall: 0.90, # 示例值 f1_score: 0.875 # 示例值 }6. 总结让YOLO12的检测结果更上一层楼后处理虽然只是目标检测流程的最后一步但它对最终效果的影响可能比模型本身还要大。通过今天的探讨你应该已经掌握了6.1 关键要点回顾置信度阈值是第一道关卡决定了哪些检测框能进入后续处理。太低会引入噪声太高会漏检。NMS是去重的标准方法通过IoU判断框的重叠程度只保留最好的那个。0.45是个不错的通用起点。WBF提供了另一种思路不是简单丢弃重复框而是融合它们的信息得到更准确的结果。没有“最好”的参数只有“最合适”的参数不同场景需要不同的参数组合。6.2 实用建议根据我的经验这里有一些可以直接用的建议对于刚上手的新手先从默认参数开始conf0.25,iou0.45, 使用标准NMS通过WebUI的滑块直观感受参数变化的影响记住调高置信度阈值会减少框的数量调高IoU阈值会让去重更严格对于特定场景安防监控人、车检测conf0.3,iou0.5, 标准NMS工业质检小缺陷检测conf0.15,iou0.4, 考虑使用WBF密集人群统计conf0.1,iou0.35, 强烈推荐WBF高精度测量场景conf0.5,iou0.6, 标准NMS性能考虑标准NMS比WBF计算更快适合实时应用WBF能提供更准确的位置适合离线分析在边缘设备上优先考虑标准NMS以节省计算资源6.3 下一步探索方向如果你已经掌握了基础的后处理调参可以进一步探索自适应参数调整根据图像内容动态调整参数比如检测到密集目标时自动降低IoU阈值多模型融合结合YOLO12不同规格n/s/m/l/x的检测结果取长补短时序一致性对于视频流考虑帧间的检测一致性避免框在相邻帧间跳动自定义后处理针对特定业务需求开发专门的过滤和优化逻辑后处理是目标检测的“最后一公里”调好了能让模型效果提升一个档次。希望今天的分享能帮你更好地驾驭YOLO12做出更精准、更稳定的检测系统。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2561999.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…