OpenCompass大模型评估实战:从原理到避坑指南

news2026/5/5 7:43:04
1. 项目概述OpenCompass你的大模型“体检中心”如果你正在研究或使用大语言模型无论是开源的Llama、Qwen还是闭源的GPT-4、Claude一个绕不开的核心问题就是这个模型到底有多强它的数学推理能力如何代码生成水平怎样长文本理解是否过关面对市面上层出不穷的模型和版本单靠“感觉”或者零散的测试已经无法给出令人信服的答案。这正是OpenCompass要解决的痛点——它是一套开源、全面、自动化的大模型评估“一站式”平台。你可以把它理解成大模型的“专业体检中心”。就像我们去医院会做血常规、CT、心电图等一系列检查来综合评估健康状况一样OpenCompass通过整合海量的标准化评测数据集Benchmark对模型进行多维度、量化的“体检”。从基础的常识问答MMLU、数学推理GSM8K到复杂的代码生成HumanEval、长上下文理解NeedleBench再到主观创作能力它都能给出客观的分数和排名。我最初接触它是因为需要对比几个微调后的模型效果手动写测试集、设计评估脚本不仅耗时而且结果难以复现和横向比较。OpenComass的出现直接把这块最繁琐、最需要标准化的活儿给包了。它的核心价值在于“公平、开源、可复现”。所有评测配置、数据集处理逻辑、评分标准都是公开透明的这意味着任何研究者或开发者都可以在完全相同的条件下复现论文中的结果或者公平地对比自家模型与SOTA模型的差距。这对于推动整个领域的技术进步至关重要。接下来我会结合自己近一年的使用和贡献经验为你深入拆解OpenCompass的设计精髓、实战操作中的核心细节以及那些官方文档里不会写的“避坑指南”。2. 核心设计思路模块化与可扩展性OpenCompass之所以能支持如此庞杂的模型和数据集其底层架构功不可没。它的设计哲学非常清晰高度模块化和配置驱动。整个评估流程被抽象为几个核心组件并通过配置文件像搭积木一样组合起来。2.1 核心组件拆解理解这几个组件你就能看懂OpenCompass的绝大部分配置文件模型Model定义了“谁”来回答问题。它不仅仅是一个Hugging Face模型路径而是一个封装了推理逻辑的模块。OpenCompass内置了HuggingFace、OpenAI-API、vLLM、LMDeploy等多种后端。例如hf_internlm2_5_1_8b_chat这个配置背后就指定了模型路径、Tokenizer、生成参数如max_out_len以及是否为对话模型meta_template。这种设计让切换推理后端比如从原生HuggingFace切换到速度更快的vLLM变得异常简单通常只需在命令行加一个-a vllm参数。数据集Dataset定义了“考什么”。一个数据集配置包含了数据加载器从本地文件、Hugging Face Hub或ModelScope加载、数据处理器如何将原始数据转换成模型能理解的Prompt和评估器如何判断模型回答的对错。OpenCompass的强大之处在于它对同一个数据集如GSM8K提供了多种“考法”比如_gen生成式评估让模型直接输出答案和_ppl困惑度评估常用于基座模型的多选题。在configs/datasets/目录下你可以看到大量这样的配置。评测任务Task将模型和数据集组合起来形成一个具体的评测单元。一个任务就是“用A模型去评测B数据集”。OpenCompass的调度器会负责将任务拆解成更小的子任务例如把数据集分成多份并分配到可用的计算资源上。评估器Evaluator定义了“怎么评分”。这是评估逻辑的核心。最常见的是GenEvaluator生成评估它调用模型生成答案然后根据数据集预定义的规则如精确匹配、正则提取、关键词判断进行评分。近年来随着大模型自身判断能力的提升LLM-as-a-Judge使用一个更强的LLM如GPT-4来评判其他模型的输出模式越来越流行OpenCompass也通过LLMEvaluator等组件提供了原生支持。总结器Summarizer在所有子任务完成后负责汇总结果、计算指标如准确率、F1分数并生成最终的报告通常是JSON、CSV或网页格式。你可以自定义总结器来输出特定格式的排行榜。2.2 配置驱动的工作流整个评估流程完全由一份或多份Python配置文件.py文件控制。当你运行opencompass run config.py时内部发生了以下事情配置解析加载你的配置文件其中通过datasets和models列表定义了要评估的所有组合。任务划分根据--max-partition-size等参数自动将大数据集切割成适合单次推理处理的小块生成大量的子任务。分布式执行利用Python的multiprocessing或slurm等后端将子任务并行分发到多个GPU或节点上执行。这是实现高效评估的关键。结果收集与汇总所有子任务完成后收集每个任务的原始输出和评分由总结器统一分析生成最终报告。这种设计的好处是你想要增加一个新的评测维度几乎不需要改动核心代码。只需要按照规范编写一个新的数据集配置文件或者创建一个新的模型适配文件然后将其引入主配置即可。这种可扩展性使得社区能够快速跟进最新的学术评测集。实操心得理解meta_template这是新手最容易出错的地方之一。meta_template定义了对话模型的角色提示格式。例如InternLM2的模板是“|im_start|system\n...|im_end|\n|im_start|user\n...|im_end|\n|im_start|assistant\n”而ChatGLM3的模板则完全不同。如果你的模型输出乱码或无法正常对话十有八九是meta_template没配对。最稳妥的方法是去查看对应模型仓库的tokenizer_config.json或官方提供的推理示例代码。3. 从零开始的实战评测指南理论讲完了我们上手实操。假设我们手头有一台配备单张A10080GB的服务器想要评测最新的Qwen2.5-7B-Instruct模型在**数学推理GSM8K和代码生成HumanEval**两个核心能力上的表现。3.1 环境搭建与数据准备首先我强烈建议使用Conda隔离环境避免包冲突。# 1. 创建并激活环境 conda create -n opencompass python3.10 -y conda activate opencompass # 2. 安装OpenCompass推荐从源码安装便于调试和查看配置 git clone https://github.com/open-compass/opencompass.git cd opencompass pip install -e . # 可编辑模式安装 # 3. 可选但推荐安装完整依赖以支持更多数据集 pip install -e .[full] # 4. 准备评测数据集 # 方法一下载官方预打包的核心数据约20GB涵盖常用基准 wget https://github.com/open-compass/opencompass/releases/download/0.2.2.rc1/OpenCompassData-core-20240207.zip unzip OpenCompassData-core-20240207.zip -d data/ # 方法二让OpenCompass在首次运行时自动下载更省心 # 什么都不用做运行评测时添加 --dry-run 参数会触发下载。3.2 编写你的第一个评测配置我们不依赖CLI的快捷命令而是创建一个完整的配置文件这样更灵活也更能理解其运作机制。在项目根目录创建一个新文件my_first_eval.pyfrom mmengine.config import read_base with read_base(): # 继承一些共享的基础配置如默认的运行时参数 from .configs.shared_configs import * # 定义要评测的模型 from opencompass.models import HuggingFaceCausalLM models [ dict( typeHuggingFaceCausalLM, abbrqwen2.5-7b-instruct-hf, # 缩写用于结果报告 pathQwen/Qwen2.5-7B-Instruct, # Hugging Face模型ID tokenizer_pathQwen/Qwen2.5-7B-Instruct, model_kwargsdict( device_mapauto, torch_dtypeauto, ), max_out_len1024, # 生成答案的最大长度 batch_size8, # 推理批次大小根据GPU内存调整 run_cfgdict(num_gpus1), # 每个任务使用的GPU数 # Qwen2.5的对话模板 meta_templatedict( round[ dict(roleuser, begin|im_start|user\n, end|im_end|\n), dict(roleassistant, begin|im_start|assistant\n, end|im_end|\n, generateTrue), ], ), ) ] # 定义要评测的数据集 from opencompass.datasets import GSM8KDataset, HumanEvalDataset from opencompass.partitioners import SizePartitioner from opencompass.runners import LocalRunner from opencompass.tasks import OpenICLTask datasets [ # GSM8K数学推理数据集使用生成式评估 dict( typeGSM8KDataset, path./data/gsm8k, # 数据路径如果自动下载则在缓存中 reader_cfgdict(input_columns[question], output_columnanswer), infer_cfgdict( inferencerdict(typeGenInferencer), prompt_templatedict( typePromptTemplate, templatedict( round[ dict(roleuser, promptQuestion: {question}\nLet\s think step by step.), ] ), ), ), eval_cfgdict(evaluatordict(typeMathEvaluator), pred_postprocessordict(typeMathExtractor)), ), # HumanEval代码生成数据集 dict( typeHumanEvalDataset, path./data/humaneval, reader_cfgdict(input_columns[prompt], output_columntest), infer_cfgdict( inferencerdict(typeGenInferencer), prompt_templatedict( typePromptTemplate, templatedict(round[dict(roleuser, prompt{prompt})]), ), ), eval_cfgdict(evaluatordict(typeHumanEvalEvaluator)), ) ] # 定义工作流任务划分、执行和汇总 work_dir ./work_dirs/my_first_eval # 所有中间结果和最终报告将存放在这里 # 任务划分器按数据集大小划分每个子任务处理最多2000条样本 partitioner dict(typeSizePartitioner, max_task_size2000) # 任务运行器使用本地进程并行 runner dict(typeLocalRunner, max_num_workers4) # 同时运行4个子进程 # 汇总器 summarizer dict( typeSummarizer, summary_groups[ { name: math_code, subsets: [[gsm8k, accuracy], [humaneval, pass1]], # 这里可以自定义如何汇总多个数据集的结果比如求平均 } ] )这个配置文件虽然看起来长但结构清晰models列表定义模型datasets列表定义数据集和评估方法后面的partitioner、runner、summarizer定义了执行策略。现在运行它python run.py configs/my_first_eval.py程序会自动开始任务划分、分布式推理、评分和汇总。你可以在work_dirs/my_first_eval/目录下看到详细的日志、每个任务的原始输出以及最终的summary文件夹里面包含了格式化的评测结果。3.3 使用加速后端提升效率如果你的模型较大如70B或者数据集量很大使用原生HuggingFace推理可能会比较慢。OpenCompass集成了vLLM和LMDeploy这两个高性能推理框架。以vLLM为例安装和切换非常简单# 在opencompass环境中安装vLLM支持 pip install -e .[vllm] # 或者直接 pip install vllm然后只需在模型配置中更改类型和参数即可from opencompass.models import VLLM models [ dict( typeVLLM, abbrqwen2.5-7b-instruct-vllm, pathQwen/Qwen2.5-7B-Instruct, model_kwargsdict(tensor_parallel_size1), # 如果多卡可以设置并行数 max_out_len1024, batch_size32, # vLLM支持更大的批处理显著提升吞吐 run_cfgdict(num_gpus1), meta_template..., # 同上 ) ]在我的测试中使用vLLM后端在A100上对同一个模型的推理速度可以有数倍甚至十数倍的提升尤其是批处理场景下。这对于需要跑遍上百个数据集的全面评测来说能节省大量时间和成本。4. 高级技巧与深度避坑指南掌握了基础操作后下面这些经验能帮你更高效、更稳定地使用OpenCompass解决那些可能让你头疼半天的问题。4.1 数据集路径与自动下载的玄机OpenCompass的数据加载逻辑优先级是本地路径 环境变量指定源 自动下载。问题明明已经下载了数据到data/为什么运行时还在重新下载排查首先检查配置文件中dataset的path参数。如果它指向的是一个Hugging Face数据集名如‘gsm8k’那么程序会优先从HF镜像站下载。如果你想强制使用本地数据path应该指向本地目录的绝对或相对路径如‘./data/gsm8k’。技巧利用--dry-run参数。在正式运行前执行opencompass run config.py --dry-run。这个命令不会真正执行推理但会完成所有准备工作包括下载缺失的数据集。这是准备数据环境最快最准的方法。4.2 内存溢出OOM与参数调优评测大模型时GPU内存不足是最常见的错误。根因分析OOM可能发生在两个阶段1)模型加载阶段如果模型权重太大单卡放不下。2)推理阶段batch_size设置过高或max_out_len太长导致激活值内存暴增。解决方案调整batch_size这是首要调整参数。从较小的值如1或2开始尝试逐步增加直到接近内存上限。启用量化加载在HuggingFace模型配置中可以通过model_kwargs传入load_in_4bitTrue或load_in_8bitTrue来使用bitsandbytes进行量化大幅减少内存占用。注意这可能会轻微影响精度。使用模型并行对于超大规模模型如180B可以使用--hf-num-gpus参数进行模型切分。例如--hf-num-gpus 2会将模型平均分配到2张GPU上。控制输出长度合理设置max_out_len。对于选择题或短答案任务没必要设置成2048。4.3 自定义数据集与评估逻辑OpenCompass的威力在于其扩展性。假设你公司内部有一个特定的问答对数据集my_qa.jsonl你想评估模型在其上的表现。创建数据集类可选简单情况可直接用NaiveDataset 在opencompass/datasets目录下新建一个文件my_qa.py继承BaseDataset类实现数据加载和预处理。更快捷的方式使用通用配置 大多数情况下你不需要写新类。创建一个配置文件configs/datasets/my_qa/my_qa_gen.pyfrom mmengine.config import read_base from opencompass.datasets import NaiveDataset from opencompass.partitioners import SizePartitioner from opencompass.runners import LocalRunner from opencompass.tasks import OpenICLTask from opencompass.models import HuggingFaceCausalLM with read_base(): from ..datasets.gsm8k.gsm8k_gen import ... # 可以继承其他数据集的推理和评估配置 # 直接使用NaiveDataset指定数据文件路径和格式 my_qa_datasets [ dict( typeNaiveDataset, pathpath/to/your/my_qa.jsonl, # 你的数据路径 reader_cfgdict( input_columns[question], # 输入列名 output_columnstandard_answer, # 标准答案列名用于评估 ), infer_cfgdict( inferencerdict(typeGenInferencer), prompt_templatedict( typePromptTemplate, templatedict( round[ dict(roleuser, prompt请回答以下问题\n{question}), ] ), ), ), eval_cfgdict( evaluatordict(typeAccEvaluator), # 使用准确率评估器 pred_postprocessordict(typeFirstCapitalPostprocessor), # 可选答案后处理例如提取首字母大写内容 ), ) ]然后在你的主配置中import这个数据集配置即可。评估器AccEvaluator会默认将模型输出与standard_answer进行字符串完全匹配。如果需要更复杂的匹配如模糊匹配、包含关系可以自定义一个Postprocessor。4.4 理解并利用LLM-as-a-Judge对于开放性、主观性强的任务如文章写作、创意生成规则评估Rule-based很难奏效。OpenCompass的LLMEvaluator允许你使用一个更强的LLM如GPT-4作为“裁判”来评分。关键配置在于eval_cfgeval_cfgdict( evaluatordict( typeLLMEvaluator, # 使用LLM评估器 judge_typegeneral, # 或 pairwise (对比评估) judge_modeldict( typeOpenAI, # 裁判模型也可以是其他API模型 pathgpt-4-turbo, keyYOUR_OPENAI_KEY, # 建议通过环境变量设置 max_seq_len2048, ), prompt_templatedict( typePromptTemplate, templatedict( # 精心设计的裁判提示词 round[ dict(rolesystem, prompt你是一个公正的裁判...), dict(roleuser, prompt请评估以下回答的质量...\n问题{question}\n回答{prediction}), ] ), ), ) )使用此功能时成本和提示词设计是两个核心考量点。需要为裁判模型设计清晰、无偏见的评分准则Rubric并可能需要对少量样本进行人工校准以确保裁判模型的评分与人类判断一致。4.5 结果解读与深度分析运行结束后别只看最终的准确率数字。work_dirs下的详细输出是你的宝藏predictions/文件夹保存了模型对每一个问题的原始生成结果。当模型表现不符合预期时这是第一手的调试资料。直接打开看几个样本能快速发现是Prompt理解有问题、生成格式不对还是模型能力确实不足。results/文件夹保存了每个样本的评分结果。summary/文件夹最终的汇总报告。除了CSV我强烈建议你打开生成的summary_*.txt或summary_*.json文件。OpenCompass通常会提供分项统计例如GSM8K会区分出“正确且推理步骤清晰”、“答案正确但推理有误”等情况。这对于分析模型的失败模式至关重要。5. 常见问题排查实录这里汇总了我及社区里遇到的一些典型问题及其解决方案希望能帮你快速排雷。问题现象可能原因排查步骤与解决方案运行时报错 KeyError: ‘xxx’1. 数据集中input_columns指定的字段在数据文件中不存在。2. 模型meta_template配置错误导致构建对话时键名不对。1. 检查数据集配置文件中的reader_cfg确保input_columns和output_column的名字与数据文件中的列名完全一致。2. 打印出构建好的Prompt前几个样本看看格式是否正确。检查模型对应的meta_template确保round中的role和begin/end标记与模型训练时使用的格式匹配。模型生成乱码或无关内容1.meta_template错误模型没有正确识别对话角色。2.prompt_template设计不合理导致模型误解指令。1.这是最高频问题。去模型官方仓库找到对话格式说明仔细核对meta_template。对于未知模型可以先用一个简单问题测试其原始对话格式。2. 简化你的Prompt使用该模型社区公认有效的提示词模板。评估准确率为0或100%1. 答案后处理器pred_postprocessor与模型输出格式不匹配导致提取答案失败。2. 评估器evaluator的匹配规则过于严格或宽松。1. 查看predictions/下的原始输出确认模型是否按照你期望的格式如“答案是5”生成。然后调整pred_postprocessor例如从FirstCapitalPostprocessor换成能匹配数字的RegexPostprocessor。2. 检查评估器的实现。对于规则评估可能是字符串匹配的规则如大小写、空格有问题。对于LLM评估需要检查裁判提示词。任务卡住长时间无进度1. 某个子任务因OOM等原因崩溃但进程未退出导致调度僵死。2. 数据集太大单个任务处理时间极长。3. 网络问题导致数据下载卡住。1. 查看logs/目录下最新日志寻找ERROR信息。使用nvidia-smi检查GPU内存是否已满但计算停滞。2. 调整partitioner的max_task_size将任务切得更小。3. 使用--dry-run提前下载好所有数据。使用API模型时大量报错或超时1. API密钥无效或余额不足。2. 请求频率超限Rate Limit。3. 网络连接不稳定。1. 确认环境变量中的API_KEY设置正确且有效。2. 在模型配置中增加run_cfgdict(max_num_workers1)来限制并发请求数并合理设置retry参数。3. 增加超时时间timeout配置并考虑使用代理此处需注意网络合规使用。vLLM/LMDeploy后端加载失败1. 加速框架版本与CUDA/PyTorch不兼容。2. 模型格式不被加速框架支持如某些特殊架构。1. 严格按照OpenCompass和加速框架官方文档的版本要求安装依赖。建议为不同的加速后端创建独立的Conda环境。2. 回退到标准的HuggingFace后端进行测试以确认是模型问题还是加速框架问题。最后保持耐心和细心。大模型评估是一个系统工程涉及模型、数据、提示工程、评估标准等多个环节。OpenCompass为你搭建好了坚固的脚手架但得出可靠、有洞见的结论依然需要你深入每一个细节。多查看predictions多分析错误案例你不仅能得到一组分数更能真正理解手中模型的“性格”与“能力边界”。这才是评估工作最大的价值所在。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2584307.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…