NeuroSploit:基于深度学习的二进制漏洞自动化利用框架解析与实践

news2026/5/6 1:15:13
1. 项目概述与核心价值最近在安全研究圈子里一个名为“NeuroSploit”的项目引起了我的注意。这个由JoasASantos开源的仓库名字本身就充满了想象力——“神经”与“漏洞利用”的结合。乍一看你可能会联想到一些科幻电影里的场景但实际接触后我发现它指向了一个非常具体且前沿的领域将神经网络的对抗性攻击技术应用于传统的二进制漏洞利用自动化过程。简单来说它试图用AI的“脑子”来辅助甚至自动化完成寻找软件漏洞、生成攻击载荷Exploit这项传统上高度依赖人工经验的工作。这听起来有点“降维打击”的味道。我们做安全研究、漏洞挖掘的同行都清楚从模糊测试Fuzzing到崩溃分析再到最终写出一个稳定可靠的Exploit每一步都是“体力活”加“脑力活”的极限挑战。你需要对目标程序的内部结构、内存布局、指令集有深刻理解还需要有丰富的经验去猜测和验证各种可能的利用路径。NeuroSploit的核心思路就是尝试用深度学习模型来学习这些“经验”并预测在给定的崩溃上下文比如寄存器状态、内存数据下最有可能成功的利用策略是什么甚至直接生成可用的Shellcode。它的价值在于将漏洞利用从一门高度依赖个人天赋和经验的“手艺”向可自动化、可量化的“工程”方向推进了一步。对于安全厂商这意味着可以更快地自动化评估自家产品的抗攻击能力对于红队和渗透测试人员这提供了一个强大的辅助工具能加速从漏洞发现到武器化的过程而对于像我这样的研究者它打开了一扇窗让我们可以更系统地理解漏洞利用的内在模式。当然它目前远非“银弹”更像是一个充满潜力的研究原型和实验平台但其展现的思路和技术路径值得我们深入拆解。2. 核心架构与技术栈深度解析NeuroSploit不是一个单一的工具而是一个集成了多个前沿子技术的框架。要理解它我们需要像剥洋葱一样从外到内看它的技术栈。2.1 整体工作流设计项目的核心工作流可以概括为一个**“观察-学习-生成”**的闭环观察数据收集首先你需要运行一个传统的模糊测试工具如AFL、libFuzzer对目标程序进行测试。当发生崩溃时不仅保存崩溃样本crash更重要的是需要利用插桩Instrumentation或调试器如GDB捕获崩溃瞬间的完整执行上下文。这包括所有通用寄存器的值、栈内存和堆内存的关键区域内容、程序计数器EIP/RIP位置、以及导致崩溃的指令。NeuroSploit依赖一套自定义的脚本或模块来完成这部分数据的结构化提取。学习模型训练将上一步收集到的、标注了“可利用性”是否最终被验证为可利用的崩溃上下文数据输入到深度学习模型中进行训练。这里的核心挑战是如何将非结构化的、离散的二进制程序状态一堆十六进制数转化为神经网络能够理解的数值化特征向量。项目通常会采用嵌入层Embedding来处理指令操作码用多层感知机MLP或卷积神经网络CNN的变体来处理内存快照的数值序列。生成预测与构造当一个新的、未知的崩溃被捕获时训练好的模型会对其进行分析并输出一个预测。这个预测可能包括a)可利用性评分这个崩溃有多大可能被成功利用b)利用类型分类这更可能是一个栈溢出、堆溢出、还是释放后重用UAFc)关键参数建议例如对于ROP链构造建议从哪个内存区域寻找gadget覆盖的返回地址偏移量大概是多少2.2 关键技术组件拆解2.2.1 状态特征化引擎这是整个项目的基石也是最体现工程巧思的地方。二进制程序的状态空间巨大且离散。NeuroSploit需要设计一套“翻译”机制寄存器状态向量化每个寄存器的值被直接视为一个64位整数对于x64或拆分为多个特征。同时寄存器之间的关系也被考虑例如RSP栈指针和RBP基址指针的差值可以暗示栈帧大小。内存上下文编码不可能将全部内存塞给模型。通常的做法是围绕崩溃点如RIP指向的地址和关键指针如RSP提取固定大小的内存块例如RSP指向地址的前后512字节。这些原始字节数据需要通过一维卷积层来提取局部模式比如识别出栈上的返回地址、或堆上的元数据结构。指令历史嵌入崩溃前执行的若干条指令序列被当作“文本”处理。每条指令的操作码opcode通过一个嵌入层映射为稠密向量然后使用循环神经网络RNN或Transformer编码器来理解这段“代码”的语义判断其是否属于某种危险模式如连续的pop指令可能有利于ROP。2.2.2 深度学习模型选型项目文档和代码显示它并非使用单一的巨型模型而是采用了一种多任务学习Multi-task Learning的架构。主干网络Backbone通常是一个共享的特征提取器由多个全连接层和激活函数如ReLU构成负责从融合的寄存器、内存特征中学习高级表示。任务特定头Task-specific Heads分类头一个Softmax层用于判断崩溃类型栈溢出、堆溢出、整数溢出等。回归头一个线性层输出一个0到1之间的分数表示可利用性的置信度。生成头如果实现这可能是一个序列生成模型如基于LSTM或Transformer的解码器接收主干网络提取的上下文特征然后自回归地生成Shellcode的字节序列。这是最高阶但也最不稳定的部分。2.2.3 集成环境与工具链NeuroSploit严重依赖现有的安全工具生态模糊测试器作为数据源。需要对其进行定制使其能在崩溃时调用NeuroSploit的数据收集钩子。调试器/插桩框架如GDB配合Python脚本或Intel Pin、DynamoRIO。用于在运行时精确捕获状态。符号执行引擎可选如angr。在一些更先进的设想中NeuroSploit可以利用符号执行来探索崩溃点附近有限的状态空间生成高质量的路径约束数据作为补充特征喂给模型这能极大提升模型对可行利用路径的理解。传统利用框架如pwntools、ROPgadget。即使模型给出了预测最终Exploit的组装和测试仍然需要这些成熟工具的辅助。NeuroSploit的理想角色是“智能参谋”而非完全取代它们。注意NeuroSploit作为一个研究型项目其工具链集成往往比较“粗糙”需要使用者根据自身环境进行大量适配和脚本编写。直接开箱即用、一键生成Exploit是不现实的预期。3. 从零开始搭建与运行NeuroSploit实验环境理论说了很多现在我们动手搭建一个可以运行NeuroSploit基础功能的环境。请注意这更像是一个研究实验平台而非生产工具。3.1 基础系统与依赖准备我选择在Ubuntu 20.04/22.04 LTS的纯净虚拟机中进行方便管理依赖和隔离环境。# 更新系统并安装基础编译工具 sudo apt update sudo apt upgrade -y sudo apt install -y build-essential git cmake python3 python3-pip python3-venv # 安装关键的二进制分析依赖 sudo apt install -y gdb nasm binutils-multiarch sudo apt install -y libc6-dev-i386 # 如需32位支持 # 安装模糊测试相关工具以AFL为例 sudo apt install -y afl3.2 核心组件安装与配置NeuroSploit的仓库通常包含几个部分数据收集脚本、模型训练代码、预测服务。我们一步步来。# 1. 克隆项目仓库 git clone https://github.com/JoasASantos/NeuroSploit.git cd NeuroSploit # 2. 创建并激活Python虚拟环境强烈推荐避免包冲突 python3 -m venv neuro_env source neuro_env/bin/activate # 3. 安装Python依赖。项目通常会提供requirements.txt # 如果没有以下是一个典型的核心依赖列表可能需要手动安装或根据错误提示调整 pip install --upgrade pip pip install numpy pandas scikit-learn matplotlib seaborn pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu # 根据CUDA情况选择 pip install angr # 符号执行引擎用于高级特征提取 pip install pwntools # Exploit开发框架 pip install tensorboard # 训练可视化3.3 数据收集管道的构建这是最繁琐但最关键的一步。我们需要改造一个模糊测试流程使其能在崩溃时调用我们的数据收集器。假设我们以一个简单的、有漏洞的C程序vuln.c一个经典的栈溢出为目标// vuln.c #include stdio.h #include string.h void vulnerable_function(char *input) { char buffer[64]; strcpy(buffer, input); // 明显的栈溢出漏洞 } int main(int argc, char **argv) { if (argc 1) { vulnerable_function(argv[1]); } return 0; }编译它关闭栈保护gcc -fno-stack-protector -z execstack -no-pie -g -o vuln vuln.c现在编写一个基于GDB的Python数据收集脚本crash_collector.py。这个脚本需要被AFL在崩溃时调用。#!/usr/bin/env python3 # crash_collector.py import gdb import json import sys from datetime import datetime def collect_crash_context(crash_file_path): 连接到崩溃进程收集寄存器、栈内存等信息 # 启动GDB并加载崩溃核心转储或附加到崩溃进程 # 这里是一个简化示例实际需要处理GDB的启动和命令执行 gdb.execute(ffile ./vuln) gdb.execute(fcore-file {crash_file_path}) # 假设有核心转储 context {} # 收集通用寄存器 regs gdb.execute(info registers, to_stringTrue) context[registers] parse_registers(regs) # 需要实现解析函数 # 收集栈内存 (RSP附近) sp int(gdb.parse_and_eval($rsp)) gdb.execute(fx/256bx {sp-128}) # 查看RSP前后128字节 # 将输出解析为字节数组存入context[stack_memory] # 收集崩溃指令及附近反汇编 rip int(gdb.parse_and_eval($rip)) disas gdb.execute(fdisas {rip-16}, {rip32}, to_stringTrue) context[crash_instruction] disas # 保存为JSON文件文件名包含时间戳和哈希 timestamp datetime.now().strftime(%Y%m%d_%H%M%S) output_file fcrash_data/crash_{timestamp}.json with open(output_file, w) as f: json.dump(context, f, indent2) print(f[] Crash context saved to {output_file}) return output_file if __name__ __main__: if len(sys.argv) ! 2: print(Usage: ./crash_collector.py path_to_crash_file_or_core) sys.exit(1) collect_crash_context(sys.argv[1])然后配置AFL在afl-fuzz命令中通过-C参数指定崩溃后的处理脚本# 创建一个目录存放崩溃数据 mkdir -p crash_data # 运行AFL并设置崩溃后执行我们的收集脚本 AFL_CRASH_EXITCODE77 afl-fuzz -i ./testcases -o ./findings -C ./crash_collector.py -- ./vuln 这样每当AFL发现一个导致崩溃的输入它就会退出并调用我们的脚本脚本通过GDB分析崩溃状态并保存为结构化数据。3.4 模型训练数据准备与特征工程收集到一批JSON格式的崩溃数据后我们需要将其转换为模型可以训练的数值矩阵。这是特征工程环节。创建一个feature_extractor.py脚本import json import numpy as np import torch from torch.utils.data import Dataset class CrashDataset(Dataset): def __init__(self, json_files, labelsNone): self.data [] for file in json_files: with open(file, r) as f: ctx json.load(f) features self._extract_features(ctx) self.data.append(features) self.data np.array(self.data) self.labels labels # 可利用性标签需要人工或通过其他工具预先标注 def _extract_features(self, context): 从原始上下文中提取特征向量 feats [] # 1. 寄存器特征将寄存器值归一化到[0,1] regs context[registers] for reg in [rax, rbx, rcx, rdx, rsp, rbp, rsi, rdi, rip]: val int(regs.get(reg, 0), 16) # 简单归一化取对数后缩放或直接除以一个大常数 feats.append(np.log1p(abs(val)) / 50.0) # 2. 栈内存特征将栈内存字节转换为整数并取统计特征 stack_bytes context[stack_memory] # 假设是字节列表 stack_ints np.array(stack_bytes, dtypenp.uint8) feats.append(stack_ints.mean() / 255.0) feats.append(stack_ints.std() / 255.0) # 可以添加更多统计量如熵值 # 3. 指令特征简化检查崩溃指令是否包含危险操作码 insn context[crash_instruction] danger_ops [call, ret, jmp, mov] danger_score sum(1 for op in danger_ops if op in insn.lower()) / len(danger_ops) feats.append(danger_score) return np.array(feats, dtypenp.float32) def __len__(self): return len(self.data) def __getitem__(self, idx): x torch.tensor(self.data[idx]) y torch.tensor([self.labels[idx]], dtypetorch.float32) if self.labels is not None else torch.tensor([-1.0]) return x, y这个Dataset类负责将杂乱的JSON数据转换成规整的PyTorch张量。特征设计是模型成败的关键这里只是一个极其简化的示例。在实际的NeuroSploit实现中特征提取网络要复杂得多。4. 模型训练、评估与实战预测有了数据我们就可以构建和训练模型了。4.1 定义神经网络模型在model.py中定义一个简单的多层感知机import torch.nn as nn class ExploitabilityPredictor(nn.Module): def __init__(self, input_dim, hidden_dims[128, 64]): super().__init__() layers [] prev_dim input_dim for h_dim in hidden_dims: layers.append(nn.Linear(prev_dim, h_dim)) layers.append(nn.ReLU()) layers.append(nn.Dropout(0.2)) # 防止过拟合 prev_dim h_dim layers.append(nn.Linear(prev_dim, 1)) layers.append(nn.Sigmoid()) # 输出一个0-1之间的概率值 self.net nn.Sequential(*layers) def forward(self, x): return self.net(x)4.2 训练循环编写train.pyimport torch import torch.optim as optim from torch.utils.data import DataLoader, random_split from model import ExploitabilityPredictor from feature_extractor import CrashDataset # 假设我们有一些带标签的数据 json_files [...] # 你的JSON文件列表 labels [...] # 对应的标签1可利用0不可利用 dataset CrashDataset(json_files, labels) # 划分训练集和验证集 train_size int(0.8 * len(dataset)) val_size len(dataset) - train_size train_dataset, val_dataset random_split(dataset, [train_size, val_size]) train_loader DataLoader(train_dataset, batch_size32, shuffleTrue) val_loader DataLoader(val_dataset, batch_size32, shuffleFalse) # 初始化模型、损失函数和优化器 input_dim train_dataset[0][0].shape[0] model ExploitabilityPredictor(input_dim) criterion nn.BCELoss() # 二分类交叉熵损失 optimizer optim.Adam(model.parameters(), lr0.001) # 训练循环 num_epochs 50 for epoch in range(num_epochs): model.train() train_loss 0.0 for batch_x, batch_y in train_loader: optimizer.zero_grad() predictions model(batch_x) loss criterion(predictions, batch_y) loss.backward() optimizer.step() train_loss loss.item() # 验证 model.eval() val_loss 0.0 correct 0 total 0 with torch.no_grad(): for batch_x, batch_y in val_loader: predictions model(batch_x) loss criterion(predictions, batch_y) val_loss loss.item() predicted_labels (predictions 0.5).float() correct (predicted_labels batch_y).sum().item() total batch_y.size(0) print(fEpoch {epoch1}/{num_epochs} | Train Loss: {train_loss/len(train_loader):.4f} | Val Loss: {val_loss/len(val_loader):.4f} | Val Acc: {correct/total:.4f}) # 保存模型 torch.save(model.state_dict(), neuro_exploit_predictor.pth)4.3 对新崩溃进行预测训练完成后我们可以用模型来评估新的崩溃def predict_exploitability(crash_json_file, model_pathneuro_exploit_predictor.pth): # 加载模型 model ExploitabilityPredictor(input_dim) # input_dim需要与训练时一致 model.load_state_dict(torch.load(model_path)) model.eval() # 提取特征 dataset CrashDataset([crash_json_file], labelsNone) features dataset[0][0].unsqueeze(0) # 增加一个批次维度 # 预测 with torch.no_grad(): score model(features).item() print(f[*] 预测的可利用性分数为: {score:.4f}) if score 0.7: print([!] 该崩溃具有较高的可利用风险建议优先分析。) # 这里可以进一步调用其他分析或生成脚本 else: print([] 该崩溃可利用风险较低。) return score5. 挑战、局限与未来展望尽管NeuroSploit的概念令人兴奋但在实际研究和应用过程中我遇到了不少挑战这也是目前该领域普遍存在的局限。5.1 面临的主要挑战高质量标注数据的稀缺性这是最大的瓶颈。模型需要大量“标注”数据即明确知道“这个崩溃是否可利用以及如何利用”的样本。人工标注一个崩溃的可利用性并给出利用路径成本极高。目前主要依赖符号执行等自动化工具生成部分“可行路径”数据或者利用历史公开的漏洞报告CVE进行反向标注但数据量和质量都难以保证。特征表示的泛化能力针对特定程序、特定编译选项如ASLR, DEP开启状态训练的模型换到另一个程序或不同环境时性能往往急剧下降。如何提取与程序语义相关、而非与具体内存地址绑定的通用特征是一个核心研究问题。利用生成的复杂性预测“是否可利用”相对容易但直接生成可工作的Shellcode或ROP链则困难几个数量级。这涉及到程序空间的精确建模、约束求解和代码生成目前最先进的模型也只能在非常受限的环境如特定小游戏中取得有限成功。误报与漏报的平衡安全工具最怕误报False Positive和漏报False Negative。一个总是喊“狼来了”的模型会让人疲劳而一个漏掉高危漏洞的模型则毫无价值。调整模型的决策阈值需要在实际场景中反复权衡。5.2 实操心得与避坑指南从小处着手不要贪大不要一开始就试图用模型去解决所有类型的漏洞。选择一个非常具体的漏洞类型例如针对某个特定版本libc的栈溢出收集尽可能多的相关崩溃样本进行训练更容易看到效果。特征工程比模型结构更重要在数据量有限的情况下精心设计的特征例如栈内存的熵值、寄存器值的奇偶性分布、到已知函数地址的距离等往往比换一个更复杂的神经网络如Transformer带来的提升更大。多花时间理解二进制崩溃的上下文。将模型作为“过滤器”或“排序器”在当前阶段最务实的用法不是让AI直接写Exploit而是让它作为崩溃分类和优先级排序的工具。让模型从海量的模糊测试崩溃中筛选出前10%最“可疑”的样本交给人工分析这能极大提升漏洞挖掘的效率。与符号执行结合纯数据驱动的模型缺乏逻辑推理能力。将神经网络的快速筛选能力与符号执行如angr的路径探索和约束求解能力相结合是当前一个很有前景的方向。例如用模型快速定位到可能包含漏洞的代码区域再用符号执行进行深入验证和利用链构造。5.3 未来可能的演进方向从我个人的观察和实验来看NeuroSploit这类技术可能会朝以下几个方向发展预训练大模型的应用类似于NLP领域的BERT、Codex未来可能会出现基于海量二进制代码和漏洞数据预训练的“漏洞大模型”。这种模型能对程序语义有更深的理解通过微调Fine-tuning就能快速适配到新的目标程序上。强化学习的引入将漏洞利用过程建模为一个序列决策问题例如依次选择gadget、计算偏移、布置内存。智能体Agent通过与环境模拟的崩溃程序交互以成功执行任意代码为奖励通过强化学习来学习利用策略。这比单纯的监督学习更符合漏洞利用的探索本质。人机协同的混合智能最终的形态可能不是全自动的AI黑客而是一个强大的“AI辅助系统”。系统负责监控运行状态、提出多种可能的利用假设、自动验证部分路径安全研究员则负责提供高层策略、审核结果、并处理AI无法理解的复杂逻辑如涉及未公开数据结构或协议解析的漏洞。这种模式能将人类的经验和机器的计算力完美结合。NeuroSploit项目像是一颗种子它指向了一个充满可能性的未来。虽然现在它还处于早期阶段工具链粗糙效果远未达到实用化水平但它所代表的“AI for Security”的研究范式已经清晰可见。对于安全从业者而言现在正是深入了解和参与这类项目的好时机不是为了立刻获得一个万能工具而是为了培养一种面向未来的、人机协同的安全研究思维模式。毕竟在攻防对抗这个永恒的动态博弈中谁能更早、更好地驾驭新的技术浪潮谁就能占据先机。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2579054.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…