【LLM infra】Megatron-LM | deepspeed | 量化/推理框架

news2026/4/19 16:10:42
noteLLM推理过程prefill每层都得到历史token的kv cache最后一个位置输出 logitsdecode对刚才新生成的token计算它的Q/K/V用它的 Q 去 attend 历史所有 K/V cache输出下一个token使用位置 t−1 的 Q 与位置 1∼t−1 的 K、V 做 attention得到位置 t−1 的上下文表示该表示经过后续 Transformer 层和 LM head 后才对词表 logits 做 softmax得到第 t 个 token 的概率分布。当前比较主流的一些分布式计算框架 DeepSpeed、Megatron 等都在降低显存方面做了很多优化工作比如量化、模型切分、混合精度计算、Memory Offload 等大模型推理与微调计算器可计算所需要的资源及预期速度。https://apxml.com/tools/vram-calculatorPTQ 的主要目标是减少 LLM 的存储和计算复杂性而无需对 LLM 架构进行修改或重新训练。PTQ 的主要优势在于其简单和高效。然而值得注意的是PTQ可能会在量化过程中引入一定程度的精度损失。当我们在硬件上跑算法时性能主要受到三个方面的限制计算速度也就是机器做数学运算的能力比如每秒能处理多少次操作OPs/second带宽数据在内存、缓存、芯片之间搬运的速度bytes/second总内存容量也就是设备最多能装下多少数据bytesFlashAttentionFlashAttention是分块读取Q/K/V矩阵少读写显存加快速度FlashAttention 4 核心亮点是针对 Blackwell/Hopper 时代“tensor core 算力增长快于 shared memory / SFU”的新瓶颈重新做了 attention 的算法与 kernel 流水协同设计它在长序列和 compute-bound 场景下能显著提速并且首次把这种顶级性能更自然地接入到 PyTorch FlexAttention 的灵活定制框架里模型架构层面优化训练推理Gated DeltaNet 混合 用“线性注意力层 全注意力层”搭骨架如qwen3.5模型DSA 在注意力里“只看重要 token”如deepseek 3.2模型文章目录note大模型参数计算1. 模型参数单位2. 训练显存计算3. 推理显存计算大模型的分布式训练1. 数据并行2. 模型并行3. 流水并行4. 混合并行模型量化Megatron-LM训练框架1、Megatron-LM框架2、codegeex的训练框架Megatron DeepSpeed ZeRO23、Megatron-DeepSpeed框架训练LLM需要的硬件DeepSpeed ZeRO零冗余优化DeepSpeed ChatfastertransformerLLM推理加速引擎tgi加速推理Text Generation Inferencesglang推理框架TensorRT推理框架LLM Compressor量化框架大模型的ToB部署LLM部署资源计算大模型推理与微调计算器Roofline 图Reference大模型参数计算1. 模型参数单位“10b”、“13b”、70b等术语通常指的是大型神经网络模型的参数数量。其中的 “b” 代表 “billion”也就是十亿。表示模型中的参数量每个参数用来存储模型的权重和偏差等信息。例如“10b” 意味着模型有大约 100 亿个参数。“13b” 意味着模型有大约 130 亿个参数。“70b” 意味着模型有大约 700 亿个参数。例如Meta 开发并公开发布的 Llama 2 系列大型语言模型 (LLM)这是一组经过预训练和微调的生成文本模型参数规模从 70 亿(7b)到 700 亿(70b)不等。经过微调的LLMs称为 Llama-2-Chat针对对话场景进行了优化。meta-llama/Llama-2-7b-hfmeta-llama/Llama-2-13b-hfmeta-llama/Llama-2-70b-hf输入仅输入文本输出仅生成文本模型架构Llama 2 是一种使用优化的 Transformer 架构的自回归语言模型。调整后的版本使用监督微调SFT和带有人类反馈的强化学习RLHF来适应人类对有用性和安全性的偏好。2. 训练显存计算1.模型权重模型权重是模型参数中的一部分通常是指神经网络中连接权重weights。这些权重决定了输入特征与网络层之间的连接强度以及在前向传播过程中特征的传递方式。所以模型2.梯度在训练过程中计算梯度用于更新模型参数。梯度与模型参数的维度相同。3.优化器参数一些优化算法如带有动量的优化器需要保存一些状态信息以便在每次更新时进行调整。这些状态信息也会占用一定的显存。比如采用 AdamW 优化器每个参数占用8个字节需要维护两个状态。意味着优化器所使用的显存量是模型权重的 2 倍采用 经过 bitsandbytes 优化的 AdamW 优化器每个参数占用2个字节相当于权重的一半采用 SGD 优化器占用显存和模型权重一样。4.输入数据和标签训练模型需要将输入数据和相应的标签加载到显存中。这些数据的大小取决于每个批次的样本数量以及每个样本的维度。5.中间计算在前向传播和反向传播过程中可能需要存储一些中间计算结果例如激活函数的输出、损失值等。6.临时缓冲区在计算过程中可能需要一些临时缓冲区来存储临时数据例如中间梯度计算结果等。减少中间变量也可以节省显存这就体现出函数式编程语言的优势了。7.硬件和依赖库的开销显卡或其他硬件设备以及使用的深度学习框架在进行计算时也会占用一些显存。【以 Llama-2-7b-hf 为例】数据类型Int8模型参数: 7B * 1 bytes 7GB梯度同上7GB优化器参数: AdamW 2倍模型参数 7GB * 2 14GBLLaMA的架构(hidden_size 4096, intermediate_size11008, num_hidden_lavers 32, context.length 2048)所以每个样本大小(4096 11008) * 2048 * 32 * 1byte 990MBA100 (80GB RAM)大概可以在int8精度下BatchSize设置为50综上总现存大小7GB 7GB 14GB 990M * 50 ~ 77GBLlama-2-7b-hf模型Int8推理由上个章节可得出现存大小6.5GB 由此可见模型训练需要的显存是至少推理的十几倍。3. 推理显存计算模型结构 模型的结构包括层数、每层的神经元数量、卷积核大小等。较深的模型通常需要更多的显存因为每一层都会产生中间计算结果。输入数据 推理时所需的显存与输入数据的尺寸有关。更大尺寸的输入数据会占用更多的显存。批处理大小BatchSize 批处理大小是指一次推理中处理的样本数量。较大的批处理大小可能会增加显存使用因为需要同时存储多个样本的计算结果。数据类型DType 使用的数据类型如单精度浮点数、半精度浮点数也会影响显存需求。较低精度的数据类型通常会减少显存需求。中间计算 在模型的推理过程中可能会产生一些中间计算结果这些中间结果也会占用一定的显存。大模型的分布式训练【背景】假设神经网络中某一层是做矩阵乘法, 其中的输入x xx的形状为4 × 5 4 \times 54×5, 模型参数w ww的形状为5 × 8 5 \times 85×8, 那么, 矩阵乘法输出形状为4 × 8 4 \times 84×8。如下:1. 数据并行数据并行切分数据x xx到不同设备上在反向传播过程中需要对各个设备上的梯度进行 AllReduce以确保各个设备上的模型始终保持一致。适合数据较大模型较小的情况如resnet50allReduce 先将所有device上的模型的梯度reduce归约然后将结果广播到所有设备上2. 模型并行模型并行省去了多个设备之间的梯度 AllReduce但是, 由于每个设备都需要完整的数据输入因此数据会在多个设备之间进行广播产生通信代价。比如上图中的最终得到的 out( 4 × 8 ) (4 \times 8)(4×8)如果它作为下一层网络的输入那么它就需要被广播发送到两个设备上。如bert3. 流水并行流水并行模型网络过大除了用模型并行还能用流水并行如下的网络有4层T1-T44. 混合并行混合并行综合上面的多种策略一起训练如GPT3首先被分为 64 个阶段进行流水并行。每个阶段都运行在 6 台 DGX-A100 主机上。在6台主机之间进行的是数据并行训练每台主机有 8 张 GPU 显卡同一台机器上的8张 GPU 显卡之间是进行模型并行训练。模型量化W4/8A16量化方案显著节省显存存储时int4/8计算时FP16Megatron-LM训练框架项目https://github.com/NVIDIA/Megatron-LM论文Megatron-LM: Training Multi-Billion Parameter Language Models UsingModel Parallelism论文链接https://arxiv.org/pdf/1909.08053.pdf1、Megatron-LM框架训练moe参考https://github.com/NVIDIA/Megatron-LM/blob/main/megatron/core/transformer/moe/README.md参考深入理解 Megatron-LM1基础知识图解大模型系列之Megatron源码解读1分布式环境初始化猛猿图解大模型训练之Megatron源码解读2模型并行图解大模型训练系列之Megatron源码解读3分布式混合精度训练图解大模型训练系列之DeepSpeed-Megatron MoE并行训练原理篇图解大模型训练系列之DeepSpeed-Megatron MoE并行训练源码解读篇2、codegeex的训练框架Megatron DeepSpeed ZeRO2PScodegeex就是采用的是8头TP192头DP共1536块GPU进行训练采用的训练框架Megatron DeepSpeed ZeRO2。项目https://github.com/THUDM/CodeGeeX/tree/7365d9df242d87a5583d3f203e4b6c547dc6240ecodegeex paper: https://arxiv.org/abs/2303.17568codegeex模型结构3、Megatron-DeepSpeed框架https://github.com/deepspeedai/Megatron-DeepSpeed比如moe训练LLM需要的硬件拿llama为例子上表源自《A Survey of Large Language Models》DeepSpeed ZeRO零冗余优化DP: Data ParallelMP: Model Paralleldeepspeed是微软大规模分布式训练框架其中3D并行解决两大问题显存效率计算效率DeepSpeedZero可以实现全参数微调DeepSpeed ZeRO-2主要用于训练deepspeed 的参数配置可参考https://www.deepspeed.ai/docs/config-json/https://huggingface.co/docs/accelerate/usage_guides/deepspeedhttps://github.com/huggingface/transformers/blob/main/tests/deepspeedDeepSpeed Chat项目https://github.com/microsoft/DeepSpeed/tree/master/blogs/deepspeed-chatdeepspeed最近推出的RLHF pipeline如下图和之前很多LLM类似使用三部曲sft、reward model、PPO亮点是在第三步使用奖励模型对sft微调模型进行ppo时基于指数移动平均计算的checkpointExponential Moving Average (EMA) collection, where an EMA based checkpoint can be chosen for the final evaluation.混合训练将pretrain和ppo混合训练Mixture Training, which mixes the pretraining objective (i.e., the next word prediction) with the PPO objective to prevent regression performance on public benchmarks like SQuAD2.0.fastertransformerLLM推理加速引擎项目链接https://github.com/NVIDIA/FasterTransformer将张量并行 (TP) 和流水线并行 (PP) 应用于transformer模型。使用fastertransformer运行 GPT 模型的工作流程是通过 MPI 或线程初始化 NCCL 通信并设置张量并行和流水线并行的ranks按张量并行、流水线并行和其他模型超参数的ranks加载权重。通过张量并行、流水线并行和其他模型超参数的ranks创建ParalelGpt实例。接收来自客户端的请求并将请求转换为 ParallelGpt 的输入张量格式。运行forward将 ParallelGpt 的输出张量转换为客户端的响应并返回响应。tgi加速推理Text Generation Inferencetgi项目https://github.com/huggingface/text-generation-inference注text-generation-inference 这个项目里Fused qkv 以及 Fused gate and up projs的好处可以并行计算。注tgi不支持量化后的模型但是Tensort-LLM也是微软提出的支持。sglang推理框架技术特点RadixAttention通过共享前缀请求和高效缓存策略SGLang能在理论上实现十万级token/s的超高吞吐量同时显著降低响应延迟分布式调度支持跨节点自动负载均衡高效结构化输出内置高性能JSON解析模块便于构建面向结构化数据查询的API服务适合复杂自动化工作流轻量模块化架构采用灵活的模块化设计便于快速集成新技术如FlashInfer内核不断优化推理效率混合精度计算FP16与FP32智能切换sglang也是ucb的团队但是跟vllm是不同的一拨人核心团队不到10人。有借鉴了一款叫做lightllm的推理引擎也import很多vllm代码后续会完全去掉对vllm的依赖。其优势在于第一sglang的性能是目前最优的在2024年。这里说的性能主要是吞吐。sglang通过多进程zmp传输中间数据来cover掉cpu的开销高负载下gpu利用率可以到80%以上。还有一些美中不足的就是实现prompt cache的逻辑也被放在了forward()主进程里不然的话GPU利用率应该可以跟lmdeploy一样保持在95%左右。我看最近好像也已经在优化这部分了到时候吞吐还能提10%。除此之外sglang在推理的各个环节都有做各种细致的工程优化。第二sglang的代码可拓展性很高主流功能都有支持的情况下代码比vllm清晰简单很多这对于二次开发来说是很重要的。第三sglang的社区活跃度虽然比不上vllm但是作者都很积极地回复issue。而且现在开发节奏基本上是一周一个版本有些功能还不太完善的地方下一个版本基本马上就更新了。TensorRT推理框架链接https://github.com/NVIDIA/TensorRTTensorRT是NVIDIA开发的一款针对深度学习推理的高性能SDK。它专门设计用来在NVIDIA的GPU上提高深度学习模型的推理速度。TensorRT通过对深度学习模型进行转换和优化生成运行时引擎Runtime Engine从而在不同的NVIDIA GPU设备上提供高性能的人工智能服务。TensorRT提供了多种优化技术来提高推理性能包括算子和张量融合、精度裁剪支持FP16和INT8精度、动态张量内存管理和多流执行等。这些优化可以显著提高模型的推理速度减少模型的内存占用同时保持推理的准确性。在实际操作中TensorRT支持从多种深度学习框架导入训练好的模型并将其转换为优化后的TensorRT引擎。例如您可以将PyTorch训练的模型转换为ONNX格式然后使用TensorRT对其进行优化和推理。在推理阶段TensorRT可以对模型进行进一步的内存和计算图优化以实现更高效的执行。LLM Compressor量化框架链接https://github.com/vllm-project/llm-compressor1现有的压缩库如AutoGPTQ、AutoAWQ、AutoFP8等通过压缩模型减少推理延迟并保持高精度但它们的分散使用增加了复杂性。LLM Compressor将这些库封装在一起使用户能够轻松应用GPTQ、SmoothQuant、SparseGPT等最先进的压缩算法。2LLM Compressor的关键优势在于支持激活和权重量化。这对于利用INT8和FP8 tensor cores非常重要特别是在NVIDIA最新的GPU架构如Ada Lovelace和Hopper架构上优化通过降低精度运算来缓解计算瓶颈。经过对Llama 3.1 70B的测试LLM Compressor通过支持激活和权重量化在保持相同延迟的情况下将所需的GPU数量从4个减少到2个。3LLM Compressor还支持最先进的结构化稀疏性2:4和SparseGPT权重剪枝通过减少50%的模型大小来降低精度损失。除了推理速度提升外量化和剪枝的组合还最大限度地减少了内存占用。4在设计之初LLM Compressor就希望能够轻松集成到其它开源系统中如Hugging Face并支持多种量化方案。这些方案包括•Per-Tensor Quantization on Weights对每个权重张量进行量化•Per-Channel Quantization on Weights对每个通道的权重张量进行量化•Per-Tensor Quantization on Activation对每个激活张量进行量化•Per-Token Quantization on Activation对每个激活token进行量化这种灵活的量化策略可以根据不同模型和部署方案的性能和精度要求进行微调。5:LLM Compressor可以与各种模型架构协同工作具备很高的可扩展性。不仅支持MoE模型和视觉语言模型还能很好地支持非英伟达硬件平台。相关优化方式激活与权重量化通过 FP8结合 RTN适配 NVIDIA Ada Lovelace 和 Hopper GPU和 INT8结合 SmoothQuant 和 GPTQ适配 NVIDIA Turing 和 Ampere GPU实现高达3 倍更快的服务器吞吐量。权重量化通过 GPTQ 生成 INT4 权重量化模型适配 NVIDIA Ampere GPU 及更新版本实现高达4 倍更快的推理延迟。权重剪枝利用 SparseGPT 创建 2:4 比例50% 稀疏的稀疏模型适配 NVIDIA Ampere GPU 及更新版本提升高达1.5 倍的整体性能。大模型的ToB部署目前企业应用大模型面临诸多难点模型体积大训练难度高算力规模大性能要求高数据规模大数据质量参差不齐。大模型产业化需要云计算厂商将模型开发、训练、调优、运营等复杂过程封装起来通过低门槛、高效率的企业级服务平台深入产业为千行百业提供服务。【举例】非guanggao文心千帆大模型平台提供公有云服务、私有化部署两大交付模式。在公有云服务方面将提供推理直接调用大模型的推理能力、微调通过高质量精标业务数据高效训练出特定行业的大模型、托管将模型发布在百度智能云以实现更加稳定高效的运行三种服务大幅降低企业部署大模型的门槛。在私有化部署方面文心千帆大模型平台支持软件授权提供在企业环境中运行的大模型服务、软硬一体提供整套大模型服务及对应的硬件基础设施租赁服务提供机器和平台的租赁满足客户低频需求三种方式。私有化部属能够满足对数据监管有严格要求的企业客户需求。LLM部署资源计算大模型推理与微调计算器可计算所需要的资源及预期速度。https://apxml.com/tools/vram-calculatorRoofline 图把计算能力和内存带宽的权衡形象地画出来。这个图是个对数坐标图横轴是算术强度FLOPs per byte纵轴是你在特定硬件上能达到的最大吞吐量FLOPs/s。Reference[1] 大语言模型LLM分布式训练框架总结[2] 【论文阅读】Megatron-LM要点[3] Megatron LM 论文精读【论文精读】.李沐论文解读.b站[4] 详谈大模型训练和推理优化技术.华师王嘉宁[5] Finding the cause of RuntimeError: Expected to mark a variable ready only once[6] 百度工程师首次现场演示“文心千帆”如何可视化微调大模型[7] 开源大模型部署及推理所需显卡成本必读也看大模型参数与显卡大小的大致映射策略[8] 也看大模型训练中的显存占用分析及优化方法解析问题思路与策略的一些总结[9] 大模型的好伙伴浅析推理加速引擎FasterTransformer[10] [NLP]深入理解 Megatron-LM详解并行策略[11] 图解大模型训练之Megatron源码解读2模型并行[12] https://github.com/NVIDIA/FasterTransformer/blob/main/docs/gpt_guide.md[13] 一步一步理解大模型零冗余优化器技术[14] 阿里云. Llama2-7B基于PAI-DSW的全参数微调训练训练参数[15] DeepSpeed结合Megatron-LM训练GPT2模型笔记[16] 大模型时代是 Infra 的春天还是冬天昆仑万维 AI-Infra 负责人[17] https://github.com/microsoft/DeepSpeed、[18] LLM十八LLM 的推理优化技术纵览[19] 大模型推理加速技术的学习路线是什么?[20] 目前业界大模型推理框架很多各有什么优缺点应该如何选择[21] 大模型推理核心技术之Continuous Batching和我的WXG往事[22] 大模型推理框架简介.csdn[23] 使用SGLang实现DeepSeek离线大模型并行推理[24] 腾讯三面训练一个70B模型要多久[25] https://jax-ml.github.io/scaling-book/[26] 大模型训练1模型训练的时间都花在哪了https://zhuanlan.zhihu.com/p/1933883029148922068

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2418659.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…