03_ONNX Runtime Java:跨框架高性能推理引擎

news2026/4/16 7:01:01
ONNX Runtime Java跨框架高性能推理引擎摘要ONNX Runtime Java 作为微软官方推出的跨平台推理引擎为 Java 生态提供了统一接入 PyTorch、TensorFlow、PaddlePaddle 等大模型的能力。本文深入剖析其架构设计、执行提供器机制、性能优化策略并结合生产级案例展示如何构建高性能推理服务。文章标签ONNX RuntimeJava推理跨框架GPU加速TensorRT生产部署模型优化量化推理一、ONNX Runtime 的定位与生态价值1.1 为什么需要跨框架推理在大模型落地的实际项目中我经常会遇到这样一个困境企业的模型资产散落在不同的训练框架中。有的团队用 PyTorch 训练了 NLU 模型有的用 TensorFlow 做了推荐系统还有的基于 PaddlePaddle 做了中文 NLP。当需要将这些模型统一部署到 Java 服务端时传统方案是为每个框架单独维护一套服务——这不仅增加了运维复杂度还带来了版本冲突、依赖管理等一系列问题。ONNXOpen Neural Network Exchange格式和 ONNX Runtime 的出现正是为了解决这种框架碎片化的问题。1.2 ONNX Runtime 的技术定位┌─────────────────────────────────────────────────────────────────────┐ │ ONNX Runtime 生态定位 │ ├─────────────────────────────────────────────────────────────────────┤ │ │ │ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │ │ │ PyTorch │ │ TensorFlow │ │ PaddlePaddle│ │ │ └──────┬──────┘ └──────┬──────┘ └──────┬──────┘ │ │ │ │ │ │ │ │ 导出 │ 导出 │ 导出 │ │ ▼ ▼ ▼ │ │ ┌───────────────────────────────────────────────────────┐ │ │ │ ONNX 统一格式 │ │ │ │ 中间表示跨框架兼容 │ │ │ └─────────────────────────┬─────────────────────────────┘ │ │ │ │ │ ▼ │ │ ┌───────────────────────────────────────────────────────┐ │ │ │ ONNX Runtime 推理引擎 │ │ │ │ │ │ │ │ ┌──────────┐ ┌──────────┐ ┌──────────┐ │ │ │ │ │ CPU │ │ CUDA │ │ TensorRT │ 执行提供器 │ │ │ │ │ MLAS │ │ GPU 加速 │ │ 极致优化 │ │ │ │ │ └──────────┘ └──────────┘ └──────────┘ │ │ │ └─────────────────────────┬─────────────────────────────┘ │ │ │ │ │ ┌──────────────────┼──────────────────┐ │ │ ▼ ▼ ▼ │ │ ┌──────────┐ ┌──────────┐ ┌──────────┐ │ │ │ Python │ │ Java │ │ C │ │ │ │ API │ │ API │ │ API │ │ │ └──────────┘ └──────────┘ └──────────┘ │ │ │ │ 核心价值一次转换处处运行硬件加速性能最优 │ │ │ └─────────────────────────────────────────────────────────────────────┘ONNX Runtime Java 是微软官方提供的 Java 绑定支持 Java 8让 Java 应用能够无缝接入 ONNX 生态。它的核心价值可以概括为三点框架无关性无论模型来自 PyTorch、TensorFlow 还是 PaddlePaddle导出为 ONNX 后都能统一运行硬件加速通过执行提供器Execution Provider机制自动适配 CPU、GPU、NPU 等多种硬件生产级性能图优化、算子融合、内存复用等企业级优化技术开箱即用二、架构设计与核心技术2.1 整体架构ONNX Runtime 的架构设计充分体现了高性能和可扩展性的设计理念┌─────────────────────────────────────────────────────────────────────┐ │ ONNX Runtime 核心架构 │ ├─────────────────────────────────────────────────────────────────────┤ │ │ │ ┌───────────────────────────────────────────────────────────────┐ │ │ │ API 层 (Java) │ │ │ │ OrtEnvironment │ OrtSession │ OnnxTensor │ OrtSession.Result │ │ │ └───────────────────────────────┬───────────────────────────────┘ │ │ │ │ │ ┌───────────────────────────────▼───────────────────────────────┐ │ │ │ 会话管理层 │ │ │ │ • 模型加载与缓存 │ │ │ │ • 输入/输出张量管理 │ │ │ │ • 线程池与并发控制 │ │ │ └───────────────────────────────┬───────────────────────────────┘ │ │ │ │ │ ┌───────────────────────────────▼───────────────────────────────┐ │ │ │ 图优化层 │ │ │ │ • 常量折叠 (Constant Folding) │ │ │ │ • 算子融合 (Operator Fusion) │ │ │ │ • 布局转换 (Layout Transformation) │ │ │ │ • 量化优化 (Quantization Optimization) │ │ │ └───────────────────────────────┬───────────────────────────────┘ │ │ │ │ │ ┌───────────────────────────────▼───────────────────────────────┐ │ │ │ 执行提供器 (Execution Providers) │ │ │ │ │ │ │ │ CPU: MLAS Eigen Intel: OpenVINO/DNNL NVIDIA: CUDA │ │ │ │ (默认) MKL-ML TensorRT │ │ │ │ │ │ │ │ 边缘: NNAPI/ARM CL AMD: DirectML/Rocm │ │ │ └───────────────────────────────────────────────────────────────┘ │ │ │ └─────────────────────────────────────────────────────────────────────┘2.2 执行提供器机制详解执行提供器Execution Provider是 ONNX Runtime 最强大的特性之一。它允许同一个模型在不同的硬件上以最优方式运行而无需修改任何代码。┌─────────────────────────────────────────────────────────────────────┐ │ 执行提供器选择决策流程 │ ├─────────────────────────────────────────────────────────────────────┤ │ │ │ 目标部署环境是什么 │ │ │ │ │ ┌────┴────┬────────────┬────────────┬────────────┐ │ │ ▼ ▼ ▼ ▼ ▼ │ │ 通用CPU Intel CPU NVIDIA GPU 边缘设备 AMD GPU │ │ │ │ │ │ │ │ │ ▼ ▼ ▼ ▼ ▼ │ │ ┌──────┐ ┌──────┐ ┌──────┐ ┌──────┐ ┌──────┐ │ │ │ MLAS │ │OpenVINO│ │ CUDA │ │ NNAPI│ │DirectML│ │ │ │默认 │ │DNNL │ │TensorRT│ │ARM CL│ │Rocm │ │ │ └──────┘ └──────┘ └──────┘ └──────┘ └──────┘ │ │ │ │ 性能对比以 BERT 推理为例 │ │ • MLAS (CPU): 基准性能 │ │ • OpenVINO: 2-4x 加速 (Intel AVX-512) │ │ • CUDA: 10-20x 加速 │ │ • TensorRT: 20-50x 加速 (极致优化) │ │ │ └─────────────────────────────────────────────────────────────────────┘主流执行提供器对比提供器适用硬件性能水平适用场景MLAS通用 CPU基准无特殊硬件环境OpenVINOIntel CPU/GPU2-4xIntel 芯片服务器DNNLIntel CPU2-3x深度学习优化CUDANVIDIA GPU10-20xGPU 服务器TensorRTNVIDIA GPU20-50x极致性能需求NNAPI移动/边缘视硬件Android/嵌入式2.3 图优化技术ONNX Runtime 在模型加载时会自动执行一系列图优化这些优化对于推理性能至关重要1. 常量折叠Constant Folding在模型推理前预先计算图中的常量节点避免运行时重复计算。优化前 优化后 A ──┐ A ──┐ ├──[Add]──┐ ├──[Add]──┐ B ──┘ │ C* ──┘ │ C ──[Const]───┘ C* Add(B, Const(C))2. 算子融合Operator Fusion将多个连续算子合并为一个融合算子减少内存访问和调度开销。优化前 优化后 Conv ── BN ── ReLU ConvBNReLU (融合算子) 内存访问3 次 内存访问1 次 核函数调用3 次 核函数调用1 次3. 内存复用Memory Reuse分析张量生命周期复用已释放的内存块降低内存占用。三、Java API 演进与核心用法3.1 版本演进历程ONNX Runtime Java 的版本演进反映了功能的逐步完善版本发布时间关键特性1.16.02024 Q1FP16/BF16 张量原生支持JDK 20 硬件加速转换1.17.02024 Q2外部初始化器支持大模型无文件系统实例化1.18.02024 Q34-bit 量化 CPU 支持FlashAttention v21.24.32025 Q1完整 Java 8 支持生产级稳定3.2 核心 API 模式以下是 ONNX Runtime Java 的标准使用模式importai.onnxruntime.OrtEnvironment;importai.onnxruntime.OrtSession;importai.onnxruntime.OnnxTensor;importai.onnxruntime.OrtSession.Result;publicclassOnnxInferenceDemo{// 1. 环境初始化全局单例privatestaticfinalOrtEnvironmentenvironmentOrtEnvironment.getEnvironment();publicstaticvoidmain(String[]args)throwsException{// 2. 会话配置OrtSession.SessionOptionssessionOptionsnewOrtSession.SessionOptions();// 设置图优化级别生产环境建议 ALL_OPTsessionOptions.setOptimizationLevel(OrtSession.SessionOptions.OptLevel.ALL_OPT);// 设置线程数默认使用所有 CPU 核心sessionOptions.setInterOpNumThreads(4);sessionOptions.setIntraOpNumThreads(4);// 3. 添加执行提供器根据硬件环境选择// CUDA 加速sessionOptions.addCUDA(0);// 或 TensorRT 极致优化// OrtTensorRTProviderOptions trtOptions new OrtTensorRTProviderOptions();// sessionOptions.addTensorrt(0);// 或 OpenVINOIntel CPU// sessionOptions.addOpenVINO(CPU);// 4. 加载模型OrtSessionsessionenvironment.createSession(model.onnx,sessionOptions);// 5. 准备输入数据float[][]inputDataprepareInput();// 根据模型要求准备OnnxTensorinputTensorOnnxTensor.createTensor(environment,inputData);// 6. 执行推理Resultresultssession.run(Collections.singletonMap(input_name,inputTensor));// 7. 获取输出OnnxTensoroutputTensor(OnnxTensor)results.get(output_name);float[][]outputData(float[][])outputTensor.getValue();// 8. 资源释放重要inputTensor.close();outputTensor.close();results.close();session.close();sessionOptions.close();}}3.3 高并发场景下的会话管理在生产环境中一个关键问题是OrtSession不是线程安全的。这意味着如果多个线程共享同一个 session会导致不可预期的错误。解决方案一会话池化importorg.apache.commons.pool2.BasePooledObjectFactory;importorg.apache.commons.pool2.PooledObject;importorg.apache.commons.pool2.impl.DefaultPooledObject;importorg.apache.commons.pool2.impl.GenericObjectPool;importorg.apache.commons.pool2.impl.GenericObjectPoolConfig;publicclassOrtSessionPool{privatefinalGenericObjectPoolOrtSessionsessionPool;publicOrtSessionPool(OrtEnvironmentenv,StringmodelPath,OrtSession.SessionOptionsoptions)throwsOrtException{GenericObjectPoolConfigOrtSessionconfignewGenericObjectPoolConfig();config.setMaxTotal(10);// 最大会话数config.setMaxIdle(5);// 最大空闲数config.setMinIdle(2);// 最小空闲数config.setMaxWaitMillis(5000);// 获取超时this.sessionPoolnewGenericObjectPool(newOrtSessionFactory(env,modelPath,options),config);}publicOrtSessionborrowSession()throwsException{returnsessionPool.borrowObject();}publicvoidreturnSession(OrtSessionsession){sessionPool.returnObject(session);}privatestaticclassOrtSessionFactoryextendsBasePooledObjectFactoryOrtSession{privatefinalOrtEnvironmentenv;privatefinalStringmodelPath;privatefinalOrtSession.SessionOptionsoptions;OverridepublicOrtSessioncreate()throwsException{returnenv.createSession(modelPath,options);}OverridepublicPooledObjectOrtSessionwrap(OrtSessionsession){returnnewDefaultPooledObject(session);}}}解决方案二ThreadLocal 隔离对于低并发场景可以使用 ThreadLocal 简化实现publicclassThreadLocalSession{privatestaticfinalOrtEnvironmentenvOrtEnvironment.getEnvironment();privatestaticfinalThreadLocalOrtSessionsessionHoldernewThreadLocal();privatefinalStringmodelPath;privatefinalOrtSession.SessionOptionsoptions;publicOrtSessiongetSession()throwsOrtException{OrtSessionsessionsessionHolder.get();if(sessionnull){sessionenv.createSession(modelPath,options);sessionHolder.set(session);}returnsession;}}四、大模型推理实战4.1 LLM 模型的特殊处理大语言模型LLM与传统深度学习模型在推理上有显著差异主要体现在自回归生成需要循环调用模型每次生成一个 tokenKV Cache需要缓存 Key/Value 矩阵避免重复计算长上下文输入长度可变内存管理复杂KV Cache 管理策略publicclassLLMInference{privatefinalOrtSessionsession;privatefinalOrtEnvironmentenv;// KV Cache 存储privateMapString,OnnxTensorkvCachenewHashMap();publicStringgenerate(Stringprompt,intmaxTokens)throwsException{ListIntegerinputIdstokenize(prompt);ListIntegeroutputIdsnewArrayList(inputIds);for(inti0;imaxTokens;i){// 准备输入当前 token KV CacheMapString,OnnxTensorinputsnewHashMap();inputs.put(input_ids,createInputTensor(outputIds));// 添加 KV Cache 到输入for(Map.EntryString,OnnxTensorentry:kvCache.entrySet()){inputs.put(entry.getKey(),entry.getValue());}// 推理Resultresultsession.run(inputs);// 获取 logits 和新的 KV CacheOnnxTensorlogitsTensor(OnnxTensor)result.get(logits);intnextTokensampleToken(logitsTensor);// 更新 KV CacheupdateKvCache(result);// 添加到输出outputIds.add(nextToken);// 检查结束符if(nextTokenEOS_TOKEN)break;}returndetokenize(outputIds);}privatevoidupdateKvCache(Resultresult)throwsOrtException{// 提取并保存新的 KV Cachefor(Stringname:result.getKeys()){if(name.startsWith(present_)){OnnxTensortensor(OnnxTensor)result.get(name);// 关闭旧的 cacheif(kvCache.containsKey(name)){kvCache.get(name).close();}// 保存新的 cachekvCache.put(name,tensor);}}}}4.2 量化模型推理量化是降低模型内存占用和推理延迟的重要手段。ONNX Runtime 支持多种量化格式// 使用量化模型假设已通过 onnxruntime.quantization 工具量化OrtSession.SessionOptionsoptionsnewOrtSession.SessionOptions();// 1.16.0 版本支持 4-bit 量化 CPU 推理options.setOptimizationLevel(OrtSession.SessionOptions.OptLevel.ALL_OPT);// 加载量化模型OrtSessionsessionenv.createSession(model_quantized.onnx,options);量化策略对比精度相对性能精度损失适用场景FP32基准无精度敏感场景FP161.5-2x1%GPU 推理INT82-4x1-3%通用加速INT44-8x3-5%极致压缩五、生产环境性能优化5.1 性能调优清单基于多个生产项目的实践经验我总结了以下优化清单优化项配置方法预期收益图优化setOptimizationLevel(ALL_OPT)10-30% 加速执行提供器根据硬件选择 CUDA/TensorRT/OpenVINO2-50x 加速FP16 推理使用 FP16 模型格式2x 吞吐显存减半动态批处理实现请求队列批处理线性吞吐提升会话池化使用 Apache Commons Pool避免并发冲突内存复用重用输入/输出张量缓冲区降低 GC 压力5.2 监控与可观测性生产环境的模型服务需要完善的监控体系importio.micrometer.core.instrument.MeterRegistry;importio.micrometer.core.instrument.Timer;publicclassInstrumentedInference{privatefinalTimerinferenceTimer;privatefinalOrtSessionsession;publicInstrumentedInference(OrtSessionsession,MeterRegistryregistry){this.sessionsession;this.inferenceTimerTimer.builder(onnx.inference).description(ONNX inference latency).register(registry);}publicResultrunWithMetrics(MapString,OnnxTensorinputs)throwsOrtException{returninferenceTimer.recordCallable(()-session.run(inputs));}}关键监控指标层级指标告警阈值建议JVM堆内存使用、GC 频率堆内存 80%推理P50/P99 延迟、QPSP99 500msGPU利用率、显存占用、温度温度 85°C系统CPU、网络 I/OCPU 70%六、常见问题与故障排查6.1 典型问题速查表问题原因解决方案OrtException: Load model failed模型文件损坏或路径错误验证模型完整性检查路径CUDA out of memoryGPU 显存不足减少 batch size使用 FP16IllegalArgumentException: Input shape mismatch输入维度不匹配检查输入数据的 shapeUnsatisfiedLinkErrorNative 库加载失败检查系统依赖更新 ONNX Runtime 版本推理结果异常预处理/后处理错误验证数据归一化、编码方式6.2 调试技巧启用详细日志# 设置 ONNX Runtime 日志级别exportORT_LOGGING_LEVELVERBOSE模型可视化检查使用 Netron 工具可视化 ONNX 模型检查输入/输出节点名称和形状# 安装 Netronpipinstallnetron# 启动可视化netron model.onnx七、与其他方案的对比7.1 ONNX Runtime vs 原生框架维度ONNX RuntimePyTorch/TensorFlow 原生跨框架✅ 统一❌ 各自独立性能接近原生最优部署复杂度低单文件高环境依赖功能完整度推理为主训练推理Java 支持官方绑定有限7.2 ONNX Runtime vs TensorRT维度ONNX RuntimeTensorRT易用性高中极致性能高更高模型兼容性更广有限动态形状支持有限支持适用场景通用NVIDIA GPU 专用八、总结与展望ONNX Runtime Java 是 Java 生态接入大模型推理的桥梁。它通过 ONNX 统一格式解决了框架碎片化问题通过执行提供器机制实现了硬件加速通过图优化技术提供了生产级性能。适用场景总结✅多模型统一纳管需要同时服务 PyTorch、TF、Paddle 模型的场景✅硬件加速需求需要 CUDA/TensorRT/OpenVINO 等加速的场景✅云原生部署容器化、微服务化的模型服务✅边缘推理NNAPI 支持的移动端/嵌入式设备局限性❌ 训练不支持仅推理❌ 某些算子可能不支持需验证❌ JNI 依赖在极端信创环境可能成为障碍展望未来随着 ONNX 标准的不断完善和更多硬件厂商的加入ONNX Runtime 在 Java 生态中的地位将进一步巩固。对于需要跨框架、跨硬件部署的企业而言它仍是最具性价比的选择。系列文章导航第1篇Java 大模型推理框架全景概览与选型指南第2篇JLama纯 Java 大模型推理框架深度解析第3篇ONNX Runtime Java跨框架高性能推理引擎本文第4篇DJLDeep Java LibraryAWS 开源深度学习框架第5篇Spring AISpring 生态原生 AI 集成框架第6篇LangChain4jJava 版 LangChain 完整实现第7篇NVIDIA Triton Java API企业级高性能推理服务第8篇Java 大模型推理性能优化与生产实践文章声明本文仅供学习参考请勿用于商业用途。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2522506.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…