新手入门不迷路:我花一周整理的神经网络工作原理通俗笔记,看完就能懂

news2026/5/1 10:17:53
引言不知道有没有和我当初一样的朋友刚接触深度学习的时候信心满满翻开《深度学习》花书刚看了两章神经元满页的偏导、矩阵乘法直接给我干懵了。合上书脑子里就一个想法神经网络这玩意儿是不是给天才准备的我这种普通人是不是学不会后来被逼着我从0写一个简单的全连接神经网络做手写数字识别写完调通跑通准确率出来那一瞬间我突然发现原来神经网络的原理根本没那么复杂所有复杂的推导本质上都是为了支撑几个非常简单的核心逻辑。这篇文章是我当初整理的原始笔记把所有复杂的概念都拆成了普通人能懂的类比跳过晦涩的纯推导先把核心逻辑讲透适合新手快速建立对神经网络的整体认知看完你就能说清楚神经网络到底是怎么干活的。文章比较长建议收藏慢慢看肯定比你啃三天干巴巴的教材有用。一、先搞懂背景神经网络到底是为了解决什么问题很多新手上来直接啃原理连为什么需要神经网络都没搞懂看了半天也不知道学了干嘛我当时走了这个坑所以先把背景说清楚。1.1 从传统机器学习的痛点说起在神经网络火起来之前我们解决AI任务用的是传统机器学习算法比如SVM、决策树、随机森林这些。这些算法解决简单问题没问题但遇到复杂任务就暴露了一个致命缺点需要人工做特征工程。什么叫人工特征工程举个例子你要做一个识别图片里有没有猫的模型用传统算法的话你得手动告诉模型猫长什么样。你要写规则猫有两只尖耳朵、有胡须、体型大多是椭圆形、毛色有很多种… 就算你写一百条规则遇到一个歪脖子睡觉的猫、只露出半个身子的猫规则立马就失效了。更复杂的任务呢比如让模型翻译一段话你能手动写出所有语义、语法的规则吗根本不可能人类语言太灵活了规则永远写不完。那神经网络呢它最大的优势就是不需要人工特征工程。你不用告诉它猫长什么样你只要把几十万张带标签的猫和狗的图片喂给它它自己会从数据里学到猫的特征自己总结规则越复杂的任务这个优势越明显。1.2 神经网络的起源从仿生学开始的半个世纪脑洞神经网络不是最近十年才出来的它的历史比很多人想的久多了整个发展脉络其实很有意思1943年心理学家McCulloch和数学家Pitts一起模仿生物神经元的工作方式提出了世界上第一个人工神经元模型这就是所有神经网络的祖宗。核心逻辑就是生物神经元收到信号累计到阈值就激活传给下一个神经元人工神经元就把这个过程数学化了。1958年科学家罗森布拉特提出了「感知机」这是第一个可以自动学习权重的神经网络当时火了一阵大家都觉得AI马上就要实现了结果很快发现感知机连最简单的异或问题都解决不了直接给神经网络泼了一盆冷水凉了快二十年。1986年反向传播算法被重新整理推广解决了多层神经网络的训练问题神经网络又火了一阵但当时计算能力不够数据也少深层网络训不动所以还是没有大规模应用。2012年AlexNet在ImageNet图像分类比赛里把传统算法的准确率直接甩出了十几个百分点一举夺冠神经网络彻底火了加上GPU计算能力的提升海量数据的积累就发展成了现在我们说的深度学习。说白了神经网络就是一个模仿人类神经元连接方式自动从数据里学习规律的统计模型没有什么玄乎的黑科技本质就是喂数据学规律做预测。1.3 为什么新手必须先搞懂基础神经网络原理现在打开任何AI平台铺天盖地都是GPT、Transformer、扩散模型、多模态大模型很多新手上来就说我要学大模型基础神经网络还有必要学吗我可以很明确的说太有必要了。不管是CNN做图像RNN做序列还是Transformer做GPT核心的工作原理从来没变过都是前向传播算预测反向传播调权重梯度下降降误差。基础原理搞懂了你学任何新的网络结构都是换汤不换药半个月就能摸到门道基础不牢你学大模型只会背“自注意力”“残差连接”这些名词遇到问题根本不知道怎么调找工作面试一问原理就露馅。所以别着急跳级把基础打牢后面走的才快。二、从0开始拆解单个神经元到底是怎么工作的很多新手上来就看多层神经网络越看越懵其实所有复杂的神经网络都是一个个单个神经元堆起来的把单个神经元搞懂了多层就是重复计算一点都不难。2.1 用通俗类比讲透单个神经元的结构人工神经元就是模仿生物神经元做的我们用生活中的例子对应每个部分看完你绝对能记住输入信号对应生物神经元树突接收到的信号放到AI任务里就是我们的原始数据。比如你识别图片输入就是每个像素的数值你判断垃圾邮件输入就是每个词是否出现的标记。权重Weight就是每个输入信号的重要程度。比如判断垃圾邮件输入里“中奖”“转账”这两个词对判断垃圾邮件的贡献特别大所以它们的权重就很高“的”“这个”这种常用词对判断没什么用权重就很低。偏置Bias就是神经元激活的门槛。你可以理解成找工作的学历门槛要求本科及以上这个“本科”就是偏置没达到就不激活不输出信号。激活函数Activation Function就是决定要不要把这个信号传给下一个神经元。累计完输入信号之后超过门槛我就激活把信号传出去没超过就不激活或者只传很小的信号。输出对应生物神经元轴突传出去的信号就是这个神经元处理完的最终结果传给下一层的神经元继续处理。把这些用数学写出来其实就一个公式yf(W⋅Xb) y f(W \cdot X b)yf(W⋅Xb)翻译成人话就是神经元输出 激活函数(所有输入乘以对应权重再加偏置)就这么简单没有任何复杂的东西。我们举个生活中真实的例子你瞬间就能懂现在你要决定周末要不要去户外打球两个输入x1今天出不出太阳出就是1不出就是0权重w10.6出太阳对打球很重要x2今天你有没有空有空就是1没空就是0权重w20.6有空也很重要偏置b-0.8也就是两个条件都满足才够门槛激活函数用最常用的ReLU小于0输出0大于0输出本身那我们算一下如果今天出太阳你也有空输出 max(0, 0.6*1 0.6*1 - 0.8) 0.4输出大于0激活所以决定去打球。如果今天出太阳你没空输出 max(0, 0.6*1 0.6*0 - 0.8) -0.2输出0不激活不去。如果今天不出太阳你有空结果和上面一样还是不去。完美整个逻辑通顺和人做判断的过程一模一样你看单个神经元是不是就是这么简单2.2 激活函数为什么一定要加这一步很多新手这里卡壳我直接输出加权和不行吗为什么非要加个激活函数核心原因只有一句话激活函数给神经网络引入了非线性让它可以拟合复杂的规律。如果没有激活函数不管你堆多少层神经网络最后本质上还是一个线性变换说白了就是只能用一条直线或者高维空间的超平面分类只能解决线性可分的简单问题。而我们遇到的大部分任务都是非线性的比如我们后面要说的异或问题一条直线根本分不了两类必须用曲线激活函数就是给神经网络画曲线的能力没有它多少层都没用。现在常用的激活函数新手只要记住这三个就够了都是一句话就能讲清楚Sigmoid把输出压缩到0~1之间很像概率适合二分类任务的输出层。缺点是输入太大或太小的时候梯度会变得接近0也就是常说的梯度消失深层网络会训不动所以现在隐藏层基本不用它了。ReLU现在隐藏层用的最多的激活函数公式就是max(0, x)小于0就输出0大于0就输出本身计算超级简单还不容易梯度消失所以从提出来到现在一直是隐藏层的首选。Softmax多分类任务输出层的标配把多个输出压缩到0~1之间所有输出加起来等于1刚好对应每个类别的概率比如手写数字识别10个输出每个输出就是这个图片是对应数字的概率非常好用。2.3 从神经元到感知机最简单的神经网络原来长这样把多个输入神经元接到一个输出神经元就成了感知机也就是世界上最简单的单层神经网络。感知机可以自动学习权重和偏置能解决所有线性可分的分类问题但是它有一个致命缺陷解决不了异或问题为什么异或问题的规则很简单两个输入相同输出0不同输出1我们把四个点画在坐标系上(0,0)输出0(0,1)输出1(1,0)输出1(1,1)输出0你现在拿笔试试能不能画一条直线把输出0的两个点和输出1的两个点分开你试多少次都不行对不对因为异或问题本身就不是线性可分的感知机本质就是线性分类器所以肯定解决不了。那怎么解决加层加隐藏层变成多层神经网络就可以解决非线性问题了。三、多层神经网络核心前向传播和反向传播到底在干啥这部分是整个神经网络原理的核心也是90%的新手卡壳的地方我不会上来就堆链式法则的推导先讲逻辑再举例子最后说数学保证你能懂。3.1 多层神经网络的结构三层就够讲清楚所有逻辑我们今天讲最基础的全连接前馈神经网络也是所有神经网络的基础结构超级清晰一共就三层输入层放我们的原始输入数据有多少个输入特征就有多少个神经元比如手写数字是28*28的图片一共784个像素输入层就有784个神经元输入层不需要计算只要把数据传进去就行。隐藏层就是输入层和输出层中间的所有层可以有1层也可以有100层所有的特征提取、特征转换都在这里做每个神经元都按照我们刚才说的单个神经元的规则计算把结果传给下一层。因为这一层的结果我们看不到所以叫隐藏层。输出层最后输出我们要的结果分类任务输出类别概率回归任务输出预测数值就这么简单。全连接的意思就是上一层的每个神经元都和下一层的所有神经元相连每个连接都有一个独立的权重结构就是这么简单没有任何玄乎的地方。3.2 前向传播从输入到输出神经网络是怎么得到预测结果的前向传播这个词听起来高级其实超级直白就是数据从输入层进去按照输入→隐藏→输出的顺序每个神经元依次做计算把结果一步步传到输出层最后得到预测结果这个从头到尾走一遍的过程就是前向传播。我们还是拿最经典的MNIST手写数字识别举例子完整走一遍前向传播你看完就懂了我们要识别一张手写数字3的图片网络结构是784个输入神经元→128个隐藏神经元→10个输出神经元对应0~9十个数字。输入层把784个像素的数值0~1之间越接近1颜色越深传给隐藏层的128个神经元。隐藏层每个隐藏神经元都计算一次激活函数(784个输入×对应权重 偏置)得到自己的输出然后把这个输出传给输出层的10个神经元。128个隐藏神经元就算128次就完了。输出层每个输出神经元接128个隐藏层的输出同样计算加权和加偏置最后用Softmax把10个输出转成概率每个概率就是这张图片是对应数字的可能性。比如输出神经元3的概率是0.92其他都低于0.02那神经网络就预测这张图片是数字3。你看整个过程就是单个神经元计算的重复从前往后走一遍就完了我当初刚学的时候以为前向传播是什么高级概念原来就是从头到尾算一遍名字起的玄乎而已。3.3 反向传播错了就改从后往前改核心就一句话反向传播是新手最害怕的概念我当初看到这四个字就头大其实反向传播的核心逻辑超级简单一句话就能说清楚前向传播得到了预测结果和真实标签比有误差我们要算出每个权重对这个误差贡献了多少然后从输出层往输入层走一步步把所有权重都往减小误差的方向调整就完了。还是用刚才的手写数字例子说那张图片真实就是数字3要是神经网络预测3的概率是0.92误差就很小不用怎么调要是它预测5的概率是0.8误差就很大就要调权重过程是这样的第一步先算输出层每个权重对这个误差的影响有多大数学上就是误差对这个权重的偏导数也叫梯度影响越大调的幅度就越大。第二步再算隐藏层每个权重对输出层误差的贡献是多少同样算出每个权重的梯度——因为隐藏层的输出影响输出层的输入所以隐藏层权重也会影响最终误差要一层层倒推。第三步每个权重都往梯度反方向走一步新的权重就能让误差变小一点。那为什么要用链式法则本质就是为了倒推梯度啊误差在输出层你要算隐藏层权重对误差的梯度就得从输出层往回链式拆解一层一层算过去没有别的魔法就是一个计算梯度的方法而已。我当初学的时候背了快一周反向传播的推导还是记不住后来自己写代码实现了一遍才发现逻辑根本不用背错了就改从后往前改每个改多少按贡献来就这么简单推导只是把这个过程用数学写出来而已新手先把逻辑搞懂推导需要的时候再看也完全不迟。3.4 梯度下降调权重为什么要这么调梯度下降也是新手经常搞混的概念其实一句话就能说清楚梯度就是误差对权重的导数导数告诉我们两件事权重变一点点误差会变多少往哪个方向变误差会变大。梯度下降就是说既然梯度方向是误差上升最快的方向那我往反方向走不就是误差下降最快的方向吗所以每次我都走一小步走的次数多了误差自然就降到最低得到最优的权重。这里还有个核心概念叫学习率就是每次走的步长步长太大一下就跳过了误差的最低点永远降不下去步长太小走半天走不到最低点训练速度太慢所以要选合适的学习率现在都有自动调整学习率的方法不用新手手动调但你要知道这个概念是什么意思。3.5 从头到尾走一遍完整训练流程看完绝对通我现在把整个神经网络训练的完整流程用手写数字识别的例子从头到尾走一遍你看完就能对整个过程有清晰的认知初始化我们定好网络结构784输入→128隐藏→10输出给所有权重和偏置赋一个初始的随机小值。选样本从6万张训练图片里随机抽100张这100张就是一个批次batch size就是100。前向传播把100张图片依次输入网络每个都算出预测概率得到100个预测结果。算误差把100个预测结果和真实标签对比算出总的误差我们一般用交叉熵损失就是衡量预测和真实差多少的指标。反向传播从输出层往回算算出每个权重和偏置的梯度也就是对误差的贡献。更新权重用梯度下降法每个权重减去「梯度×学习率」把所有的权重偏置都更新一遍。循环重复步骤2到6几千次几万次误差会越来越小训练集上的准确率越来越高。测试拿训练好的网络测一万张没见过的测试图片看准确率有多高整个训练就完成了。我当初刚学的时候不用PyTorch、TensorFlow纯用numpy写这个完整流程一共才150行代码跑了10个epoch就是把整个训练集过10遍最终测试准确率就到97%了当时那种成就感真的无法形容原来神经网络真的就是这么工作的一点都不神秘。四、训练神经网络的核心概念新手必须搞懂的几个坑讲完核心流程我再把新手经常搞混的几个核心概念用通俗话讲清楚帮你避坑。4.1 学习率、Batch Size、Epoch到底是什么这三个词是你看教程、跑代码每天都会遇到的很多新手学了好久都没搞清楚一句话区分Epoch把整个训练集的所有样本都过一遍就是一个Epoch。比如我们MNIST训练集有6万张把6万张都学了一遍就是一个Epoch一般训练要跑几个到几十个Epoch让网络充分学习。Batch Size每次更新权重之前一次性喂给网络的样本数量。刚才我们一次喂100张Batch Size就是100。为什么不一次喂完6万张一是6万张一起算内存放不下计算量太大二是一次喂一张梯度波动太大不稳定。所以现在一般用小批量就是32、64、128这样的大小兼顾计算速度和稳定性。学习率就是每次更新权重的步长刚才已经说过了一般初始设0.001或者0.01记住学习率不对网络根本训不出来。4.2 欠拟合和过拟合怎么判断怎么解决这两个是训练神经网络最常见的问题用类比一下子就能懂欠拟合就是网络学的不够训练集上准确率都很低误差降不下去相当于老师讲题你还没听懂上考场肯定考不好。解决方法很简单多训练几轮或者增加网络的复杂度加层、加神经元数量。过拟合这个是最常见的就是网络学的太“过”了把训练集里的噪音、特殊情况都当成规律学了训练集准确率特别高但是测试集没见过的样本准确率很低。相当于你考试前把往年真题的答案都背下来了换一道同知识点的新题你就不会泛化能力差。解决过拟合的方法新手记住这四个就够了Dropout训练的时候随机让一部分神经元不工作不让网络依赖某几个神经元的输出强迫它学到更通用的规律就像你训练做题的时候故意遮住几个知识点让你不能依赖某个知识点要整体理解。正则化给损失函数加一个惩罚项让权重不要太大避免网络对个别输入太敏感常用的是L2正则化。增加训练数据这个是最根本的更多的训练数据就能让网络学到更通用的规律减少过拟合。早停训练的时候每过一个Epoch就在验证集上测一次误差如果验证集误差连续好几轮不下降了就停止训练避免继续训练学进去太多噪音。4.3 为什么深层神经网络比浅层好深度真的是力量吗很多人都听过一个定理通用近似定理说一个足够宽的单层隐藏层神经网络可以拟合任意连续函数那为什么我们现在要搞几十层、上百层的深层神经网络其实这个问题很好理解定理说的没错但是那需要的神经元数量是爆炸级的参数多到根本训练不动内存都装不下。而深层神经网络有一个巨大的优势分层提取特征参数效率更高。比如你用深层神经网络识别猫第一层提取简单的边缘特征第二层把边缘组合成形状耳朵、眼睛、鼻子第三层把形状组合成猫的各个部位第四层就得到整个猫的轮廓一层层抽象用很少的参数就能表达很复杂的规律同样的参数数量深层网络的效果比浅层好太多了这就是深度学习为什么这么强的核心原因。五、新手学习神经网络常见的3个误区我踩过你别踩这都是我当初学的时候实打实踩过的坑写出来给你避开5.1 误区一必须先把所有数学推导都搞懂才能动手我刚学的时候就是这个误区啃了半个月反向传播的推导还是云里雾里什么代码都不会写后来导师跟我说你先写个简单的跑通再回头看推导一下子就懂了真的是这样。对于新手来说先搞懂核心逻辑动手跑通一个简单的例子比背会所有推导有用一万倍。你跑通了知道每个步骤对应什么过程再看推导每个符号代表什么你都清楚一下子就理解了完全不用一开始就死磕数学纯浪费时间还打击信心。5.2 误区二神经网络是黑箱我只要会调包就行不用懂原理现在很多新手学深度学习上来就是PyTorch搭模型调包跑跑出来结果就完了根本不懂原理遇到问题根本不会调。比如训出来准确率上不去不知道是学习率不对还是过拟合还是梯度消失只会瞎试参数试半个月都试不出来。懂原理你一看误差曲线就知道问题出在哪该调什么效率高太多了而且找工作面试的时候一问原理就露馅所以基础原理必须懂不能只会调包。5.3 误区三上来就学Transformer、GPT跳过基础全连接现在大模型火很多新手上来就说我要学GPT不学基础其实所有的神经网络不管多复杂核心原理都是相通的全连接网络是基础把全连接的原理搞懂了学CNN就是改了连接方式学Transformer就是加了自注意力机制核心的前向传播、反向传播、梯度下降从来没变过半个月就能上手。基础不牢你学Transformer只会背名词根本不知道为什么要加残差连接为什么要层归一化遇到问题根本改不了所以一定要从基础来慢慢来才是最快的。六、总结神经网络工作原理核心梳理最后我把核心点梳理一遍你看完可以对着复盘快速记住整个逻辑神经网络本质是模仿生物神经元的工作方式用多层神经元层层提取特征自动从数据中学习规律不需要人工特征工程适合处理复杂的AI任务。单个神经元的计算非常简单输出 激活函数(输入加权和 偏置)激活函数引入非线性让神经网络可以拟合复杂的规律。整个神经网络的训练过程分为两个核心步骤前向传播数据从输入到输出层层计算得到预测结果。反向传播计算预测和真实的误差从输出往输入层层推导每个权重的梯度然后用梯度下降更新权重减小误差。训练就是不断重复「前向传播→算误差→反向传播→更新权重」的过程循环多次误差越来越小网络的预测越来越准。新手学习不用死磕推导先懂逻辑动手跑通例子再逐步深入避开常见误区就能快速入门。这篇差不多是我当初学神经网络整个过程的梳理从最开始的一头雾水到后来搞懂最大的感悟就是神经网络真的没那么难很多时候是被教材里的一堆公式给吓住了拆解开每个步骤都非常简单。。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2536637.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…