Rust语言GPU推理引擎nblm-rs:专为NVIDIA优化的轻量级大模型部署方案

news2026/5/7 2:26:32
1. 项目概述一个为NVIDIA GPU优化的Rust语言推理引擎最近在折腾大模型本地部署和推理加速尤其是在资源受限的边缘设备上总感觉现有的框架要么太重要么对特定硬件的优化不够极致。直到我遇到了nblm-rs这个项目它让我眼前一亮。简单来说nblm-rs是一个用 Rust 语言编写的、专门为 NVIDIA GPU 优化的轻量级大语言模型推理引擎。它的核心目标非常明确在保证易用性的前提下榨干单张消费级显卡比如 RTX 4090, 3090的性能实现高效、低延迟的文本生成。这个项目源自K-dash组织从名字就能看出其技术倾向——nblm很可能指的是 “NVIDIA-optimized BERT/Llama Model” 或类似含义-rs则表明了其 Rust 血统。在当前 Python 生态一统 AI 江湖的背景下一个用 Rust 从头构建的推理引擎显得格外特立独行。它不是为了替代 PyTorch 或 TensorRT 这样的巨无霸而是瞄准了一个更细分的场景当你需要将一个 7B 或 13B 参数的模型以最小的开销和最快的速度跑起来并且对部署的简洁性和可控性有极高要求时nblm-rs提供了一个非常值得考虑的 Rust 原生方案。我花了几周时间深入研究、编译测试甚至尝试集成到自己的边缘计算项目中。这篇文章我就来详细拆解nblm-rs的设计思路、核心技术栈、实操部署过程以及在实际使用中遇到的“坑”和解决技巧。无论你是对 Rust 高性能计算感兴趣还是正在寻找更高效的模型部署方案相信都能从中获得启发。2. 核心架构与设计哲学解析2.1 为什么是Rust性能与安全的双重考量选择 Rust 作为实现语言是nblm-rs最根本也最值得玩味的设计决策。在 AI 基础设施领域C 一直是高性能计算的不二之选如 PyTorch 底层、TensorRT而 Python 则是算法研究和快速原型的主流。Rust 作为后来者其优势在于在提供媲美 C 的零成本抽象和运行时性能的同时通过严格的所有权系统和生命周期检查从根本上避免了内存安全问题如悬垂指针、数据竞争。这对于需要长时间稳定运行、处理高并发请求的推理服务至关重要。在nblm-rs的上下文中Rust 的优势具体体现在无垃圾回收GC的开销模型推理尤其是自回归生成是一个对延迟极其敏感的过程。GC 的停顿是不可预测的可能成为尾部延迟的罪魁祸首。Rust 在编译期确定内存生命周期运行时无需 GC保证了稳定的低延迟。** fearless concurrency**利用 Rust 的安全并发模型可以更轻松、更安全地设计多批次并行处理、流水线并行等优化策略充分发挥多核 CPU 的潜力来辅助 GPU 工作。与 C/C 生态的无缝交互通过bindgen等工具Rust 可以轻松调用 CUDA、cuBLAS、cuDNN 等 NVIDIA 原生库同时用更安全的 Rust 代码包裹这些不安全的底层调用构建出既高效又健壮的绑定层。卓越的编译优化Rust 编译器rustc和 LLVM 后端能产生高度优化的机器码。对于推理引擎中大量的张量运算、内核启动逻辑每一处性能提升都能被累积放大。注意Rust 的学习曲线是客观存在的特别是生命周期和所有权概念。但对于基础设施项目前期在正确性上的投入会在后期的系统稳定性和维护成本上带来巨大回报。nblm-rs可以看作是将 Rust 应用于 AI 系统领域的一次积极实践。2.2 核心模块拆解从模型加载到Token生成nblm-rs的代码结构清晰地反映了其作为一个推理引擎的工作流程。虽然项目可能处于快速迭代中但其核心模块通常包含以下几个部分模型加载与解析模块 (model/)职责读取 Hugging Face 格式的模型文件通常是.safetensors或旧的.bin文件。safetensors是一种安全、高效的张量存储格式正逐渐成为社区标准。实现Rust 需要实现自己的解析器来读取这些文件的元数据和张量数据。这里会涉及文件 I/O、反序列化以及将数据加载到主机内存。关键点如何高效地将磁盘上的张量数据映射或拷贝到内存特别是处理大模型时数十GB需要考虑内存映射mmap等技术来减少启动时的内存峰值。计算图与算子模块 (ops/或kernels/)职责定义模型运行所需的所有基础运算算子如矩阵乘法MatMul、LayerNorm、激活函数SiLU, GeLU、注意力机制Attention等。实现这是性能的关键。对于能在 GPU 上执行的算子需要通过 Rust 的 CUDA 绑定如rust-cuda来编写或调用 CUDA 内核。对于简单的、或更适合 CPU 执行的算子如某些数据预处理则用纯 Rust 实现。关键点算子融合Kernel Fusion。将多个连续的小算子如 LayerNorm GeLU融合成一个大的 CUDA 内核能显著减少内核启动开销和全局内存访问次数这是现代推理引擎的核心优化手段之一。nblm-rs很可能在尝试实现此类优化。运行时与执行引擎 (engine/)职责这是引擎的大脑。它负责将加载的模型权重和计算图组织起来管理 GPU 内存显存的分配与释放调度算子的执行并处理推理的循环过程在生成任务中。实现需要维护显存池、管理计算流CUDA stream、实现序列调度对于批处理等。它提供了一个简单的 API如engine.generate(prompt, max_tokens)。关键点持续批处理。这是高性能推理服务的标配技术。当多个请求到达时引擎动态地将不同长度的序列组合成一个批次进行计算最大化 GPU 利用率。nblm-rs要实现生产级可用持续批处理是必经之路。Tokenizer 集成 (tokenizer/)职责将输入文本转换为模型能理解的 token ID 序列并将模型输出的 token ID 序列转换回文本。实现通常会直接集成tokenizers这个优秀的 Rust 库来自 Hugging Face它提供了与 Python 版tokenizers库兼容的、高性能的实现。关键点确保与原始模型如 Llama、Qwen使用的分词器完全一致避免出现乱码或语义偏差。后端抽象层 (backend/)职责抽象不同的计算后端。目前核心是cuda后端但设计上可能为未来支持metalApple GPU或vulkan跨平台留出接口。实现定义一套统一的 Trait类似接口如DeviceBuffer,ComputeKernel然后由各后端具体实现。这是 Rust trait 系统优势的体现保证了代码的扩展性和整洁性。2.3 与主流方案的对比定位与取舍理解nblm-rs必须把它放在现有的技术生态中看。特性/方案nblm-rs(Rust)llama.cpp(C)vLLM(Python C)TensorRT-LLM(C/Python)核心语言RustCPython (前端), C (核心)C (核心), Python (前端)核心优势内存安全、高性能、部署简洁极致轻量、广泛的硬件支持高效的持续批处理、开源生态丰富NVIDIA 官方、极致性能优化适用场景追求安全与性能平衡的Rust栈服务、边缘部署资源极度受限环境、非NVIDIA硬件高吞吐量的云端推理服务追求NVIDIA显卡上最高吞吐/最低延迟模型格式可能支持safetensors/ GGUFGGUF (主流)Hugging Face 格式 / AWQ等专属格式 (需编译)上手难度中等 (需Rust基础)较低 (预编译二进制多)较低 (Python接口友好)较高 (工具链复杂)社区生态新兴较小但专注非常庞大和活跃快速增长主流选择之一官方支持企业级nblm-rs的独特定位它试图在llama.cpp的轻量和vLLM的高吞吐之间找到一个平衡点同时引入 Rust 的现代语言特性来保证长期维护性和系统可靠性。它不追求支持所有硬件而是专注于在 NVIDIA GPU 上做到最好。如果你的技术栈是 Rust或者你正在构建一个对稳定性和资源控制有严苛要求的长期服务nblm-rs会是一个极具吸引力的选项。3. 从零开始环境搭建与项目编译实操3.1 前置环境准备Rust工具链与CUDA要玩转nblm-rs你的开发环境必须准备好两大基石Rust 编程环境和 NVIDIA CUDA 工具包。1. 安装Rust工具链推荐使用rustup进行安装和管理这是 Rust 官方的工具链安装器。# 在终端中执行以下命令安装 rustup curl --proto https --tlsv1.2 -sSf https://sh.rustup.rs | sh安装完成后按照提示执行source $HOME/.cargo/env或重启终端使cargoRust的包管理和构建工具和rustc生效。验证安装rustc --version cargo --version2. 安装CUDA Toolkitnblm-rs深度依赖 CUDA。你需要安装与你的 NVIDIA 显卡驱动兼容的 CUDA 版本。访问 NVIDIA 官网下载并安装 CUDA Toolkit。安装后确保nvcc编译器和相关库路径被正确添加到系统环境变量中。# 验证 CUDA 安装 nvcc --version # 验证 GPU 驱动及设备 nvidia-smi实操心得CUDA 版本与显卡驱动的兼容性是个经典问题。如果nvidia-smi显示的 CUDA Version这是驱动支持的最高版本是 12.4那么你安装的 CUDA Toolkit 版本不应高于此。通常选择稍低一点的稳定版本如 12.1, 11.8兼容性更好。安装后记得将 CUDA 的bin和lib64目录加入PATH和LD_LIBRARY_PATH。3. 项目获取使用git克隆nblm-rs仓库。git clone https://github.com/K-dash/nblm-rs.git cd nblm-rs3.2 编译配置与常见问题破解进入项目目录后首先应该查看README.md和Cargo.toml文件。Cargo.toml是 Rust 项目的清单文件其中定义了依赖项和特性。1. 处理CUDA依赖Rust 项目通过build.rs脚本在编译时处理原生依赖。nblm-rs的build.rs很可能需要定位你的 CUDA 安装路径。如果编译时出现找不到cuda.h或libcudart的错误你需要手动指定环境变量。# 假设你的 CUDA 安装在 /usr/local/cuda-12.1 export CUDA_HOME/usr/local/cuda-12.1 export PATH$CUDA_HOME/bin:$PATH export LD_LIBRARY_PATH$CUDA_HOME/lib64:$LD_LIBRARY_PATH然后尝试编译cargo build --release--release标志会启用所有优化编译时间较长但生成的二进制文件性能最佳。2. 编译中的“拦路虎”及解决方案链接错误 (undefined reference to ...)这几乎总是 CUDA 库链接问题。确保LD_LIBRARY_PATH包含了 CUDA 的lib64目录。有时还需要安装cuda-nvcc等开发包。cc编译器找不到Rust 的cccrate 用于编译 C/C 绑定。确保你的系统安装了gcc或clang。内存不足编译大型 Rust 项目特别是涉及复杂 CUDA 绑定时可能需要大量内存8GB。如果编译进程被杀死尝试关闭其他程序或增加交换空间。特定版本Rust某些项目可能要求 nightly 版本的 Rust 或特定版本。查看项目说明使用rustup default nightly或rustup override set 1.75来切换版本。3. 编译成功与测试编译成功后你会在target/release/目录下找到生成的可执行文件名字可能在Cargo.toml的[[bin]]部分定义。运行一个简单的测试例如查看帮助信息./target/release/nblm-rs --help如果项目提供了示例模型可以尝试运行一个最简单的推理./target/release/nblm-rs -m /path/to/your/model -p Hello, how are you?4. 模型准备与转换让Hugging Face模型在nblm-rs中运行4.1 模型格式解析从PyTorch到nblm-rsHugging Face 上主流的模型保存格式是 PyTorch 的.bin文件多个或更现代的.safetensors文件单个。nblm-rs作为一个 Rust 项目无法直接读取 Python 的 pickle 序列化格式.bin内部是 pickle因此.safetensors格式是首选因为它是一个纯数据格式没有执行代码的风险且易于跨语言解析。如果你的模型是.bin格式你需要将其转换为.safetensors。可以使用 Hugging Face 的safetensors库# 这是一个Python脚本 convert_to_safetensors.py from safetensors.torch import save_file import torch # 加载PyTorch模型权重 state_dict torch.load(pytorch_model.bin, map_locationcpu) # 保存为safetensors格式 save_file(state_dict, model.safetensors)同时你还需要模型的配置文件config.json和分词器文件tokenizer.json或tokenizer_config.json。将这些文件model.safetensors,config.json,tokenizer.json放在同一个目录下就构成了nblm-rs可识别的模型目录。4.2 权重数据类型与量化支持原始模型通常是float16(FP16) 或bfloat16(BF16) 精度。为了在消费级显卡上运行更大的模型量化是必备技能。量化将高精度权重转换为低精度如int8,int4大幅减少显存占用和带宽压力通常对生成质量影响很小。nblm-rs可能支持或计划支持以下几种量化方式GGUF 格式这是llama.cpp社区推动的量化格式非常流行。如果nblm-rs支持你可以直接下载 Hugging Face 上已转换好的 GGUF 模型文件如Q4_K_M.gguf。AWQ/GPTQ 格式这些是更先进的、注重精度保持的量化方法。nblm-rs可能需要集成相应的反量化内核来加载这类权重。自定义量化项目可能提供自己的量化工具将.safetensors转换为特定的低位宽格式。实操步骤假设项目提供转换工具准备原始的 FP16 模型目录。使用项目内的转换工具例如cargo run --bin quantize --进行量化。cargo run --release --bin quantize -- \ --input-model ./original_model \ --output-model ./quantized_model \ --quant-type q4_0 # 示例指定量化类型转换工具会读取原始权重和配置应用量化算法生成一个新的、包含量化后权重文件的模型目录。重要注意事项量化是一个有损过程。不同的量化类型如q4_0,q8_0,q4_k_m在精度和速度上有权衡。q4_0是 4-bit 整数量化速度最快显存占用最小但可能损失一些精度。q8_0是 8-bit精度更高。对于创意写作或代码生成建议从q6_k或q8_0开始尝试如果纯粹追求速度或需要运行超大模型q4_k_m是平衡之选。5. 运行与配置启动你的第一个推理会话5.1 命令行参数详解假设编译出的可执行文件名为nblm-rs它通常会提供一系列命令行参数来控制推理行为。以下是一些通用且关键的参数./target/release/nblm-rs \ -m /path/to/your/model_directory \ # 模型路径必需 -p 你的提示词在这里 \ # 输入提示词 -n 512 \ # 生成的最大token数量 -t 0.7 \ # 温度 (temperature)控制随机性 --top-p 0.9 \ # Top-p (nucleus) 采样参数 --top-k 40 \ # Top-k 采样参数 --repeat-penalty 1.1 \ # 重复惩罚降低重复输出 -b 4 \ # 批处理大小 (batch size) -c 2048 \ # 上下文长度 (context size) --gpu-layers 35 \ # 将多少层模型放在GPU上混合推理时使用-m, --model指向包含model.safetensors(或类似文件) 和config.json的目录。-p, --prompt输入的文本提示。对于聊天模型你可能需要按照特定模板拼接对话历史如[INST] ... [/INST]。-n, --n-predict控制生成文本的长度。注意总处理长度是提示词token数 n-predict不能超过模型的上下文长度。-t, --temp温度。越高如 1.0输出越随机、有创意越低如 0.1输出越确定、保守。对于事实性问答建议较低温度0.1-0.3对于创意写作可以调到 0.7-0.9。--top-p, --top-k与温度配合使用的采样策略。top-p(核采样) 从累积概率超过 p 的最小词集合中采样top-k只从概率最高的 k 个词中采样。通常两者选一即可top-p0.9是常见设置。--repeat-penalty惩罚重复的 token值 1.0 会降低已出现 token 的概率有效减少循环和重复。-b, --batch-size一次前向传播处理的序列数。增大批次可以提高 GPU 利用率但也会增加显存消耗和延迟。-c, --ctx-size模型上下文窗口大小。必须小于等于模型训练时的最大长度如 4096。设置过大会浪费显存过小则模型无法利用长上下文信息。--gpu-layers在显存不足时此参数至关重要。它指定将模型的前 N 层放在 GPU 上其余层放在 CPU 上。这是一种混合推理模式虽然层间数据传输会带来开销但使得在有限显存下运行大模型成为可能。5.2 编写一个简单的集成示例对于真正的应用你肯定不会每次都敲命令行。nblm-rs更可能作为一个库crate被集成到你的 Rust 服务中。查看项目的Cargo.toml如果它定义了lib那么你可以将其作为依赖项引入。Cargo.toml中添加依赖[dependencies] nblm-rs { path /path/to/your/nblm-rs } # 本地路径依赖 # 或者未来发布后 nblm-rs 0.1.0一个简单的 Rust 程序示例 (src/main.rs):use nblm_rs::{Engine, EngineConfig, SamplingParams}; #[tokio::main] // 假设引擎支持异步 async fn main() - Result(), Boxdyn std::error::Error { // 1. 配置引擎 let config EngineConfig { model_path: ./models/llama-2-7b-chat-q4.into(), max_batch_size: 4, max_context_len: 4096, gpu_layers: Some(40), // 全部放在GPU上 ..Default::default() }; // 2. 加载引擎 let mut engine Engine::load(config).await?; // 3. 准备采样参数 let params SamplingParams { temperature: Some(0.7), top_p: Some(0.9), top_k: Some(40), max_tokens: Some(512), ..Default::default() }; // 4. 准备提示词按模型要求格式化 let prompts vec![ What is the capital of France?.to_string(), Explain quantum computing in simple terms..to_string(), ]; // 5. 执行推理 let results engine.generate(prompts, params).await?; // 6. 处理结果 for (i, output) in results.iter().enumerate() { println!(Prompt {}: {}, i, prompts[i]); println!(Response: {}, output.text); println!(---); } Ok(()) }这个示例展示了如何以编程方式初始化引擎、配置生成参数、进行批处理推理。实际 API 会根据nblm-rs的具体设计有所不同但整体逻辑是相通的。6. 性能调优与高级特性探索6.1 显存管理与性能监控在 GPU 上运行大模型显存是首要瓶颈。你需要清楚你的模型有多大以及nblm-rs如何分配显存。估算显存占用一个粗略的公式是显存 ≈ 模型参数量 * 每个参数的字节数 激活值 上下文缓存。对于 FP16 模型每个参数占 2 字节。一个 7B 模型约需7e9 * 2 bytes ≈ 14 GB。对于 INT4 量化模型每个参数占 0.5 字节。一个 7B 模型约需3.5 GB加上激活值和缓存实际可能在 4-5 GB。上下文缓存对于长度为L的序列缓存KV Cache的占用与层数、注意力头数、头维度有关大致为2 * 层数 * L * 隐藏维度 * 2 bytesFP16。这是为什么长上下文如 128K极其消耗显存。使用nvidia-smi监控在运行推理时打开另一个终端使用watch -n 0.5 nvidia-smi动态观察显存占用和 GPU 利用率。理想的推理过程GPU 利用率应持续较高80%。如果利用率波动大可能是 CPU 预处理或调度成了瓶颈。nblm-rs可能的调优参数--batch-size增加批次大小能提升 GPU 吞吐量Tokens/sec但会增加延迟和显存占用。找到适合你场景的平衡点。--flash-attn如果项目集成了 FlashAttention-2务必启用。它能大幅加速注意力计算并减少显存占用。--streaming启用流式输出。这样可以在生成第一个 token 后就开始逐步返回结果而不是等全部生成完极大改善用户体验。6.2 持续批处理与流式输出对于服务多个用户的场景持续批处理是核心。原理传统的静态批处理要求所有请求的输入长度相同。持续批处理则动态地将不同时间到达、不同长度的请求“拼装”到一个计算图中GPU 每次都对当前有效的序列进行计算。当一个序列生成完毕后其占用的资源被立即释放新的序列可以加入。在nblm-rs中你需要查看其是否支持类似vLLM的AsyncEngine。通常它会维护一个请求队列和一个调度器。作为用户你只需异步地提交请求 (engine.generate_async(prompt)) 并等待结果即可引擎内部会处理复杂的调度。流式输出集成示例 (伪代码):let mut stream engine.generate_stream(Tell me a long story.).await?; while let Some(chunk) stream.next().await { match chunk { OutputChunk::Token(token) { print!({}, tokenizer.decode([token])?); std::io::stdout().flush()?; // 立即刷新输出 } OutputChunk::Finished break, OutputChunk::Error(e) eprintln!(Error: {}, e), } }这种模式对于构建聊天应用或实时交互界面至关重要。7. 常见问题排查与实战心得7.1 编译与运行问题速查表问题现象可能原因排查步骤与解决方案cargo build失败提示Could not find directory...CUDA 路径未正确设置1. 确认which nvcc。2. 设置CUDA_HOME环境变量指向 CUDA 安装目录。3. 确保LD_LIBRARY_PATH包含$CUDA_HOME/lib64。运行时错误CUDA error: out of memory显存不足1. 使用nvidia-smi确认显存占用。2. 换用量化程度更高的模型如 Q4 代替 Q8。3. 减小--batch-size和--ctx-size。4. 使用--gpu-layers进行混合推理。生成结果乱码或毫无意义1. 模型与提示词格式不匹配。2. Tokenizer 不匹配。1. 确认模型类型基础、对话、代码。对话模型需按模板包装提示词如[INST] {prompt} [/INST]。2. 确保使用的tokenizer.json与模型原配一致。推理速度极慢1. 模型层被放在 CPU 上。2. 未使用 GPU。3. 批次大小太小。1. 检查--gpu-layers是否设置过小。尝试增大。2. 确认程序是否真的在使用 GPU查看nvidia-smi进程。3. 适当增加--batch-size。程序崩溃无错误信息可能触发了 Rust 的 panic如数组越界1. 尝试在调试模式下运行cargo run看能否捕获 panic 信息。2. 检查模型文件是否完整、未被损坏。3. 查看项目 issue 列表是否有已知问题。7.2 个人实战心得与技巧从“小”开始不要一上来就尝试 70B 模型。先用一个 7B 甚至更小的模型如 Phi-2验证整个流程环境、编译、加载、推理。成功跑通能建立信心并帮你熟悉工具链。量化是平民玩家的福音在 24GB 显存的消费卡上通过量化Q4_K_M你可以流畅运行 34B 甚至部分 70B 的模型。生成质量对于大多数应用来说已经足够。llama.cpp社区提供的各种量化版本的模型是宝贵的资源。温度与采样的艺术不要死记硬背参数。对于不同的任务进行简单的 A/B 测试。写故事试试temp0.8, top_p0.95。做事实问答temp0.1, top_p1.0。关闭top_p和top_k设为 0 或 1相当于贪婪解码greedy decoding每次选择概率最高的 token输出稳定但可能枯燥。上下文长度是双刃剑虽然长上下文很诱人但它会线性增加 KV 缓存对显存的占用。除非你真的需要处理超长文档否则将--ctx-size设置为实际需要的最大值即可比如 4096。关注项目动态像nblm-rs这样的新兴项目迭代很快。定期git pull更新代码关注CHANGELOG.md和 Issue 列表你可能会发现新的优化、支持的模型或解决的 bug。贡献与反馈如果你在使用中发现了 bug或者有性能优化的想法不要犹豫去 GitHub 上提交 Issue 或 Pull Request。开源项目的生命力正来自于此。清晰的复现步骤、环境信息和日志是对开发者最大的帮助。最后一点体会使用nblm-rs这类项目与其说是简单地“运行一个模型”不如说是在参与构建 AI 原生应用的基础设施。你会更深入地理解模型推理的各个环节从权重加载、计算图执行到内存调度。这种掌控感是在使用封装完善的云端 API 时无法获得的。它可能不会像 ChatGPT 那样开箱即用但它给你的是定制、优化和集成的无限可能。尤其是在边缘计算、私有化部署和对成本敏感的场景下每一分性能的压榨和资源的控制都直接转化为竞争优势。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2590092.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…