深度学习对抗性攻击与防御:从FGSM到对抗训练的技术全景

news2026/5/12 19:28:44
1. 项目概述当深度学习模型遭遇“精心设计的噪声”在图像识别、自动驾驶、金融风控等关键领域深度学习模型正扮演着越来越核心的角色。我们通常关注的是模型的准确率、召回率这些“正面战场”上的表现但一个容易被忽视的致命问题是当一个模型在测试集上达到99%的准确率时它真的“可靠”吗答案可能是否定的。一个经过精心设计的、人眼几乎无法察觉的微小扰动就足以让最先进的模型做出完全错误的判断。这种针对模型的“欺骗”行为就是对抗性攻击而如何让模型抵御这种攻击提升其“鲁棒性”则构成了一个充满挑战与机遇的研究领域。这篇综述旨在为你梳理这个领域的核心脉络。它不仅仅是一篇学术文献的罗列更是从一线研究者和工程师的视角去理解攻击为何能成功、防御为何如此困难以及在实际系统中我们该如何权衡与取舍。无论你是刚入门的研究生希望找到有价值的研究方向还是负责部署AI系统的工程师需要评估模型的安全风险亦或是产品经理想要理解AI产品的潜在脆弱性这篇文章都将为你提供一个扎实的、可操作的认知框架。我们将从最直观的图像攻击案例入手逐步深入到攻击与防御的核心思想、主流方法、评估指标并最终探讨这个领域未来的挑战与可能的工程实践路径。2. 对抗性攻击揭秘模型的“阿喀琉斯之踵”2.1 攻击的核心思想与分类维度对抗性攻击的本质是寻找模型决策边界附近的“弱点”。我们可以把一个训练好的深度学习模型想象成一个复杂的、高维空间中的分类曲面。在训练数据分布的区域这个曲面很平滑分类正确。但攻击者的目标是找到那些距离原始数据点非常近却刚好跨过了决策边界的点。这些点就是对抗样本。为了系统地理解攻击我们可以从几个关键维度进行分类攻击者的知识白盒 vs. 黑盒白盒攻击攻击者拥有模型的全部知识包括网络结构、参数权重、训练数据分布等。这是最强的攻击假设通常用于评估模型鲁棒性的理论上限。大多数经典的攻击算法如FGSM, PGD最初都是在白盒设定下提出的。黑盒攻击攻击者对模型内部一无所知只能通过向模型输入数据并观察其输出如预测的类别标签或置信度分数来进行探测。这更贴近现实世界的攻击场景例如攻击一个商业化的API。黑盒攻击往往需要大量的查询或者依赖于迁移性——即在一个白盒模型上生成的对抗样本对另一个黑盒模型也有效。攻击的目标有目标 vs. 无目标无目标攻击只要让模型对原始样本的预测出错即可不管它错成什么类别。这是相对容易实现的目标。有目标攻击不仅要让模型预测错误还要让它错误地预测到攻击者指定的某个特定类别。例如把一张“熊猫”图片扰动成模型认为的“长臂猿”。这需要更精细的控制。攻击的扰动范数约束 为了保持对抗样本的“隐蔽性”扰动必须足够小。通常用L_p范数来度量扰动大小L∞范数约束每个像素点的变化都不能超过一个阈值ε。这保证了扰动在视觉上是均匀且不易察觉的。Fast Gradient Sign Method (FGSM)就是典型的L∞攻击。L2范数约束所有像素变化值的平方和的平方根即欧氏距离小于一个阈值。这允许某些像素变化较大但整体变化能量受限。Carlini Wagner (CW)攻击是L2攻击的代表。L0范数约束被改变的像素总数即稀疏攻击。它只修改极少数的关键像素点在数字世界可能难以察觉但在物理世界打印出来时几个像素的异常点很容易被注意到。注意在实际评估中L∞约束因其与人类感知的一致性人眼对均匀噪声不敏感和优化的便利性成为最常用的约束条件。但也要意识到不同的威胁模型可能需要不同的约束。2.2 经典攻击算法深度解析理解了分类我们来看几个奠基性的、你必须掌握的攻击算法。我会重点解释其背后的直觉和关键实现细节。2.2.1 Fast Gradient Sign Method (FGSM) – 快速但粗糙FGSM是Goodfellow等人在2015年提出的开创性工作其思想异常简洁而深刻。它基于一个观察深度学习模型的线性性质是高维空间中的脆弱性的根源。核心思想沿着损失函数相对于输入数据的梯度方向添加一个微小的扰动。因为梯度方向是使损失函数即模型犯错程度增加最快的方向。数学形式x_adv x ε * sign(∇_x J(θ, x, y))其中x是原始干净样本。y是其真实标签。J是模型的损失函数如交叉熵。∇_x J是损失对输入x的梯度。sign(...)是符号函数将梯度向量的每个元素变为1或-1。这保证了扰动是沿着梯度方向的正或负单位步长。ε是扰动大小控制攻击强度。实操要点与心得实现简单在PyTorch或TensorFlow中几行代码即可实现。关键在于计算梯度时要将输入x的requires_grad设置为True并在计算完对抗样本后记得将原始模型参数和输入的梯度状态恢复。单步攻击FGSM只走一步。它的攻击成功率通常低于迭代式方法但速度极快常用于对抗训练中快速生成对抗样本。ε的选择ε是超参数。对于ImageNet数据集上的模型ε8/255或16/255像素值归一化到[0,1]是常见的基准值。太小攻击无效太大扰动肉眼可见。2.2.2 Projected Gradient Descent (PGD) – 强大而标准PGD可以看作是FGSM的“多步迭代”版本由Madry等人提出目前被广泛认为是评估模型鲁棒性的“标准”白盒攻击。核心思想以FGSM为基本步骤进行多轮迭代。在每一轮迭代中先沿着梯度方向走一小步然后将结果投影回允许的扰动空间例如ε大小的L∞球内。数学形式以L∞约束为例x_adv^(0) x uniform_noise(-ε, ε) // 随机初始化起点这是关键 for t in 0 to T-1: x_adv^(t) clip(x_adv^(t) α * sign(∇_x J(θ, x_adv^(t), y)), x - ε, x ε)其中α是每一步的步长通常设为ε/4或ε/10。clip操作将样本裁剪到以原始样本x为中心、半径为ε的L∞球内。T是迭代次数通常为10-40步。为什么PGD如此强大迭代优化多步迭代允许攻击更精细地寻找决策边界上的最优点。随机初始化这是PGD的灵魂。从随机点开始搜索有助于找到全局最优或更优的对抗样本避免陷入局部最优。这模拟了最坏情况下的攻击者。投影操作保证了扰动始终满足约束条件。实操心得评估鲁棒性的金标准在学术论文中常用“PGD-10”或“PGD-20”下的准确率作为模型鲁棒性的核心指标。计算成本PGD需要T次前向传播和反向传播计算量是FGSM的T倍。在对抗训练中这是主要的性能瓶颈。步长α的选择步长太大可能震荡无法找到精细的边界步长太小则收敛慢。通常需要根据ε和T进行调参。2.2.3 Carlini Wagner (CW) 攻击 – 精准而高效CW攻击是另一个里程碑式的工作。它不再直接优化损失函数而是将寻找对抗样本的过程形式化为一个带约束的优化问题并巧妙地通过改变变量将其转化为无约束优化问题。核心思想定义一个目标函数当且仅当样本是对抗样本时该函数值为负。然后最小化这个函数同时最小化扰动的L2范数。数学形式简化 他们寻找一个小的扰动δ使得f(xδ) t有目标攻击到类别t或f(xδ) ≠ y无目标。通过引入一个辅助变量w令δ 0.5*(tanh(w)1) - x从而自动将xδ约束在[0,1]的有效像素范围内。然后使用标准的梯度下降法如Adam来优化w。为什么CW攻击重要高成功率在相同的L2扰动约束下CW攻击的成功率通常远高于基于FGSM迭代的方法。评估防御的试金石许多早期的防御方法如梯度掩码、输入转换在PGD攻击下可能表现良好但CW攻击能更有效地绕过它们因为它不依赖于梯度符号而是直接优化一个自定义的目标。灵活性可以方便地定制目标函数适应不同的攻击需求。实操注意事项实现复杂需要自己定义目标函数和变量替换代码比FGSM/PGD复杂。调参多优化算法如学习率、目标函数中的置信度参数κ等都需要调整。速度慢由于需要多次迭代且可能使用二阶优化速度通常比PGD慢。2.3 黑盒攻击与物理世界攻击2.3.1 黑盒攻击的主要策略当模型是一个黑盒时攻击者主要依靠两种策略基于查询的攻击通过反复向目标模型输入样本并观察输出来估计模型的决策边界或梯度。例如有限差分法估计梯度grad_est ≈ (f(xδ*e_i) - f(x)) / δ通过逐个维度添加微小扰动来估计梯度方向然后使用白盒方法如PGD。这种方法查询效率极低对于高维输入如图像不实用。自然进化策略将扰动参数化通过采样多个扰动样本并评估其攻击效果目标函数值来更新扰动分布。查询次数依然很大但比有限差分更高效。基于决策边界的攻击只利用模型的最终预测标签而非置信度通过反复试探在决策边界附近进行“行走”来寻找对抗样本。基于迁移的攻击这是更实用、更危险的黑盒攻击方式。攻击者先在一个自己拥有的、与目标模型可能结构相似或任务相同的替代模型上进行白盒攻击生成对抗样本然后直接将这些样本用于攻击黑盒目标模型。核心依据对抗样本在不同模型之间存在“迁移性”。这是因为不同模型在相同数据上学习到的决策边界虽然不同但在高维空间中有一定的相似性。如何提升迁移性研究发现在替代模型上使用更强的攻击如迭代攻击、动量加速、对输入进行多种变换缩放、平移、添加噪声后再攻击、或者攻击一个集成模型都能显著提升生成样本的迁移成功率。2.3.2 物理世界攻击的挑战与实例将数字世界的对抗样本应用到物理世界面临巨大挑战视角变化、光照变化、距离、相机噪声、打印质量等都会改变扰动模式。经典案例著名的“对抗性贴纸”攻击。通过在停车标志上贴上精心设计的贴纸可以使自动驾驶汽车的识别系统将其误判为“限速标志”。这不再是像素级的微小扰动而是局部、但语义上显著的修改。关键思路期望变换在数字攻击的优化过程中引入一系列模拟物理世界变化的变换如随机旋转、亮度调整、模糊、添加噪声等期望生成的对抗样本对这些变换具有鲁棒性。打印-扫描循环将数字对抗样本打印出来再用相机拍摄扫描回电脑用这个“物理化”后的样本来指导下一轮的优化。实操难点模拟环境与真实环境的差异难以完全覆盖攻击成功率通常低于数字环境且制作和测试成本高昂。3. 对抗性防御构建模型的“免疫系统”面对层出不穷的攻击研究者们提出了多种防御思路。没有一种防御是“银弹”各有其优缺点和适用场景。3.1 对抗训练最主流且有效的防御范式对抗训练的思想直截了当既然攻击样本存在于数据分布中那就把它们加入到训练数据里让模型在训练过程中就学会识别和抵抗它们。3.1.1 标准对抗训练流程以PGD对抗训练为例其训练过程是一个最小-最大优化问题min_θ E_(x,y)~D [ max_(δ∈S) L(θ, xδ, y) ]内层最大化对于每一个训练样本(x, y)寻找一个在允许扰动集合S如L∞球内、能使当前模型损失L最大的对抗样本xδ。这步通常用PGD攻击来近似求解。外层最小化用找到的对抗样本xδ和其真实标签y来计算损失并更新模型参数θ目标是降低模型在对抗样本上的损失。实操步骤详解数据加载读取一个mini-batch的干净数据(x, y)。生成对抗样本对于batch中的每个样本x以它为中心初始化一个随机扰动然后进行多步PGD迭代得到当前模型下最强的对抗样本x_adv。注意在这步中需要计算梯度但只更新x_adv不更新模型参数θ。需要用到torch.no_grad()上下文管理器来保护模型参数。模型更新将x_adv输入模型计算损失L(θ, x_adv, y)然后执行反向传播更新模型参数θ。循环重复步骤1-3。3.1.2 对抗训练的代价与权衡对抗训练并非没有代价它引入了著名的鲁棒性-准确率权衡。计算开销巨大每个训练step都需要为每个样本运行多步PGD训练时间是普通训练的数倍到数十倍。标准准确率下降在干净测试集上的准确率通常会下降几个百分点。模型为了抵抗那些“最坏情况”的扰动牺牲了对“典型情况”的拟合能力。过拟合到特定攻击使用PGD-10训练出的模型对PGD-10攻击可能非常鲁棒但对更强的PGD-100攻击或者使用不同范数约束如L2的攻击鲁棒性可能下降。这被称为“梯度掩码”或“过拟合到攻击”现象。实操心得与技巧早停法监控干净准确率和对抗准确率在验证集上的表现当对抗准确率不再提升甚至开始下降时可能意味着过拟合及时停止训练。课程学习在训练初期使用较小的扰动强度ε和较少的PGD步数T随着训练进行逐步增加ε和T。这有助于稳定训练过程。使用半监督或无标签数据对抗样本的标签与原始样本相同。可以利用大量无标签数据来生成对抗样本进行训练能有效提升鲁棒性且缓解对标签数据的依赖。模型容量通常更大的模型更多参数在对抗训练中能更好地同时保持干净准确率和鲁棒准确率。3.2 输入预处理与去噪运行时的“防火墙”这类防御不修改模型本身而是在模型推理前对输入数据进行预处理试图消除或减弱对抗扰动。图像变换包括随机裁剪、缩放、旋转、JPEG压缩、高斯模糊、中值滤波等。其原理是许多对抗扰动对这类变换非常敏感变换后可能失效。但攻击者也可以将变换过程考虑到攻击优化中即期望变换攻击从而绕过防御。基于去噪器训练一个独立的去噪网络如U-Net结构的自编码器将输入的对抗样本映射回干净的流形。去噪器需要在干净数据和对抗数据上进行训练。关键在于去噪器本身也可能被攻击。随机化在推理时随机组合多种预处理方法增加攻击者预测防御行为的不确定性。优点部署灵活无需重新训练主模型可与其他防御结合。缺点容易被自适应攻击即攻击者知晓防御机制并针对其进行攻击所击败。单独使用时可靠性存疑。3.3 可证明鲁棒性追求数学上的确定性这是防御领域的一个“圣杯”方向。目标不是经验性地抵抗已知攻击而是为模型提供一个可证明的下界对于任何在给定扰动范围内的输入模型都能保证预测正确。区间界传播将扰动范围输入区间通过网络层进行传播计算出网络输出logits的区间范围。如果对于正确类别的logits下界仍然大于所有错误类别的logits上界那么就可以证明模型在该扰动下是鲁棒的。基于凸松弛的验证将神经网络中非线性的激活函数如ReLU用其线性上/下界来松弛从而将非凸的验证问题转化为可求解的凸优化问题如线性规划LP。优点提供绝对的安全保证。缺点计算成本极高验证一个样本的鲁棒性可能比训练模型还慢。可证明的边界通常很松为了可计算性而做的松弛导致证明出来的鲁棒扰动半径ε远小于实际模型能抵抗的半径。例如模型实际可能抵抗ε8/255的PGD攻击但可证明的鲁棒半径可能只有ε1/255。模型设计受限为了便于验证模型结构需要特殊设计如使用特定激活函数、小规模网络这通常会损害模型的标准性能。目前可证明鲁棒性更多用于对小型模型或关键安全模块提供理论保障难以直接应用于大规模复杂模型。3.4 检测与异常检测设立“哨兵”如果无法完全免疫能否至少检测出“敌人”的入侵检测器的目标是区分干净样本和对抗样本。基于特征统计假设对抗样本在模型的中间层激活或梯度上其统计特性如分布、相关性与干净样本不同。可以训练一个二分类器如SVM、简单神经网络来检测。基于不确定性估计对抗样本往往导致模型预测的不确定性增高。可以通过蒙特卡洛Dropout、深度集成等方法来估计模型的不确定性对高不确定性的输入发出警告。子网络不一致性训练多个子网络或利用Dropout产生多个预测。如果对于同一个输入不同子网络的预测结果差异很大则该输入很可能是对抗样本。优点可以作为安全系统的第一道防线与主模型解耦。缺点二分类问题本身可能被攻击攻击者可以同时优化对抗样本使其既能欺骗主模型又能骗过检测器。高误报率一些分布外但非恶意的样本如不同风格的图像也可能被检测为对抗样本影响系统可用性。4. 评估与基准如何科学地衡量鲁棒性“我的模型鲁棒性如何”需要一个客观、统一的答案。这离不开标准的评估流程和基准数据集。4.1 核心评估指标鲁棒准确率在特定攻击方法如PGD-20和特定扰动预算如ε8/255下模型能正确分类的样本比例。这是最核心的指标。干净准确率在未受扰动的测试集上的准确率。用于衡量鲁棒性带来的性能代价。平均扰动范数成功攻击所需的平均扰动大小L2或L∞。数值越小说明模型越脆弱。攻击成功率对于攻击者而言在给定扰动预算内成功生成对抗样本的比例。可证明鲁棒半径对于可证明鲁棒的方法报告其能保证正确分类的最大扰动半径ε。4.2 主流基准与排行榜数据集CIFAR-10, CIFAR-100, ImageNet是图像领域最常用的基准。MNIST由于过于简单已逐渐淡出主流研究。攻击基准白盒环境下PGD攻击是事实上的标准。通常会报告在多个扰动强度ε如4/255, 8/255, 16/255和多个攻击步数T下的鲁棒准确率。AutoAttack是一个集成的、参数自适应的攻击基准它组合了多种攻击包括PGD、FAB、Square Attack等并自动调整参数旨在提供一个更可靠、更强大的评估避免因攻击强度不足而高估模型鲁棒性。现在许多高水平论文都要求报告AutoAttack下的结果。黑盒评估通常会测试基于迁移的攻击成功率或者使用查询效率高的黑盒攻击算法如Square Attack进行评估。4.3 评估中的“坑”与最佳实践避免“梯度掩码”造成的虚假鲁棒性有些防御如输入随机化、某些激活函数并不是真正让决策边界变得平滑而是让损失函数的梯度变得不可靠或信息量少从而使基于梯度的攻击如PGD失败。但这不代表模型真的鲁棒因为换用不依赖梯度的攻击如CW或基于查询的黑盒攻击就能轻易攻破。因此评估时必须包含非梯度攻击或黑盒攻击。使用自适应攻击评估一个防御方法时必须假设攻击者完全了解你的防御机制白盒并针对性地调整攻击算法。例如如果你的防御包含输入随机化那么攻击者在生成对抗样本时就应该模拟这个随机化过程即期望变换攻击。只使用标准PGD攻击来评估一个复杂防御是远远不够的。报告计算成本对抗训练的时间、推理时防御如去噪增加的延迟都是实际部署中必须考虑的因素。跨数据集的泛化在一个数据集如CIFAR-10上表现良好的防御在另一个数据集如ImageNet上可能效果大打折扣。需要谨慎推广结论。5. 前沿趋势与未来挑战5.1 从图像到多模态与结构化数据早期研究集中在图像分类但对抗性风险无处不在自然语言处理在文本中替换、插入或删除少量词汇即可误导情感分析、机器翻译或文本分类模型。但文本是离散的梯度信息难以直接利用催生了基于贪心搜索、遗传算法或梯度估计的攻击方法。图数据在社交网络或分子结构图中添加或删除少量边/节点可以影响节点分类或图分类的结果。强化学习对智能体的观察状态施加扰动可以使其做出灾难性决策。语音识别添加人耳难以察觉的音频背景噪声可以让语音识别系统听成完全不同的指令。这些领域的攻击与防御需要结合其数据特有的结构和语义来设计方法。5.2 更高效的对抗训练与理论理解快速对抗训练如何降低对抗训练的巨大开销研究包括单步对抗训练但需谨慎容易导致梯度混淆、利用更高效的内部最大化近似、课程学习与早停策略的优化等。理解鲁棒性泛化的奥秘为什么对抗训练后的模型能在未见过的攻击上也有一定泛化能力这涉及到对高维数据流形、模型容量和优化景观的深层理论理解。预训练与微调范式能否先在大量数据上进行“鲁棒预训练”得到一个通用的鲁棒特征提取器再在下游任务上快速微调这可能是将鲁棒性推向大规模应用的关键。5.3 物理世界部署与系统安全端到端安全评估在真实的自动驾驶、人脸识别闸机、内容审核系统中对抗性风险必须作为系统安全评估的一部分。这需要构建更逼真的物理世界测试平台和评估基准。防御的组合与纵深单一防御很难万无一失。未来的安全系统可能需要结合对抗训练提升模型内在鲁棒性、输入检测过滤可疑输入、运行时监控检测异常预测和可证明鲁棒模块用于最核心的安全断言等多重手段构建纵深防御体系。人机协同当模型不确定时能否将决策交给人类研究如何设计有效的置信度指标和报警机制实现可靠的人机回环。5.4 伦理与对抗样本的双重用途对抗性研究是一把双刃剑。它既可用于揭露模型缺陷、推动构建更安全的AI也可能被恶意利用。研究社区需要建立负责任的披露准则在发布强大攻击方法的同时必须同步考虑或提供相应的防御思路并积极与工业界合作修复已部署系统中的漏洞。6. 给实践者的建议从研究到落地如果你是一名工程师负责一个即将上线的AI模型该如何应对对抗性威胁以下是一些务实的建议风险评估先行你的模型应用场景是否关键被攻击的后果有多严重如果是在娱乐推荐、图像风格转换等非安全场景可能无需过度担忧。但如果涉及金融交易、医疗诊断、自动驾驶则必须将鲁棒性纳入核心考量。将对抗训练作为基线对于关键任务模型如果计算资源允许PGD对抗训练是目前最可靠、最值得投入的防御方法。即使不能全量数据训练也可以在部分数据或最后一个阶段进行对抗性微调。进行全面的安全测试在模型上线前进行系统的对抗性测试。不要只测PGD。至少应包括白盒测试PGD多步数、多ε、AutoAttack。黑盒测试基于迁移的攻击使用不同架构的替代模型、查询式攻击如果API允许。如果防御包含预处理务必使用自适应攻击进行测试。监控与响应在生产环境中建立监控指标例如模型预测置信度的分布是否出现异常偏移、同一时间段内相同或相似错误是否激增。制定应急预案当怀疑遭受对抗性攻击时能够快速回滚模型或启用备用方案。保持更新对抗性安全是一个快速发展的领域。新的攻击和防御方法不断涌现。定期关注顶级会议如ICLR, NeurIPS, CVPR, CCS的最新成果评估其对你系统的适用性。我个人在实际研究和项目中的体会是对抗性鲁棒性不是一个可以“一劳永逸”解决的问题而更像是一场持续的“军备竞赛”。它迫使我们去更深刻地理解深度学习模型究竟学到了什么、决策边界到底长什么样。即使最终无法实现绝对的鲁棒这个过程本身也极大地提升了我们构建、理解和信任AI系统的能力。对于从业者而言最重要的不是追求那个完美的防御而是建立起一套涵盖设计、训练、测试、监控和响应的完整安全思维与流程。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2606992.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…