乔治亚理工等联手:让AI大模型“自学成才“,不再依赖更强大的老师

news2026/5/14 22:18:12
这项由佐治亚理工学院、加州大学洛杉矶分校、卡内基梅隆大学以及威廉与玛丽学院联合开展的研究以预印本形式发布于2026年5月论文编号为arXiv:2605.06597。感兴趣的读者可通过该编号在arXiv平台查阅完整论文。一、问题从哪里来大模型的补课困境每当我们希望一个人工智能助手在某个特定领域变得更厉害时传统做法都是找一个更厉害的老师来指导它。就好像你想学钢琴就得找一位经验丰富的钢琴家手把手教你而不是对着镜子自己摸索。大型语言模型也就是我们常说的LLM像ChatGPT、Gemini这类AI的训练也是如此——通常需要借助更强大的模型生成训练数据或者直接让更大的模型当老师来指导它们学习。但这里藏着一个越来越让人头疼的现实问题依赖外部老师这条路正变得越来越贵、越来越麻烦。顶级模型的使用权往往受到商业许可和访问权限的限制大量调用它们来生成训练数据会产生高昂的费用而且这些外部老师本身也可能带来意想不到的麻烦——比如它们可能存在偏见、涉及隐私敏感内容或者把自身的某些不良习惯也一并遗传给学生模型。正是在这样的背景下研究团队开始思考一个颇具挑战性的问题一个AI模型能不能通过向自己学习来变得更聪明而不是非要找一个比自己更强的老师这个想法并不新鲜研究者们把它叫做自蒸馏Self-Distillation简称SD。概念本身很直白——让模型从自己生成的内容中提取知识、改进自己。但真正动手实现时却会遇到三道难以绕开的关卡。第一道关卡是开放式生成的难题。AI语言模型生成的是自由发挥的文字而不是像做选择题那样只有一个标准答案。同一个问题可以有很多种正确的回答方式——不同的推理路径、不同的代码实现方案、不同的表达风格。这使得判断自己生成的内容好不好本身就成了一件极其困难的事。一段答案可能在某些地方是对的在某些地方又有偏差甚至表面上看起来合理实际上却暗藏错误。第二道关卡是自我监督的不可靠性。当模型既是学生又是老师时问题就来了——如果老师本身就会犯错那学生岂不是要从错误中学习更糟糕的是如果训练过程中模型稍微偏了一点方向这个偏差可能会在后续不断被放大就像滚雪球一样越滚越大。第三道关卡是缺乏系统性的理解。现有的自蒸馏研究大多是各自为政的——这篇论文测试了方法A那篇论文测试了方法B但没有人把这些方法放在一起系统地比较到底哪些方法真正有效它们在什么情况下有用它们之间会不会相互影响、相互增强面对这三道关卡研究团队没有选择修修补补而是决定从零开始搭建一套完整的体系来回答这些问题这就是UniSD框架诞生的故事。二、UniSD是什么一个精心设计的自学训练营理解UniSD最好的方式是把整个自蒸馏过程比作一个人在没有老师的情况下练习写作文。学生也就是要被训练的AI模型先自己写一篇作文然后通过各种方式检验自己写得好不好再根据这些反馈来改进。UniSD所做的就是把这个检验和改进的过程变得尽可能可靠、稳定和高效。研究团队识别出自蒸馏需要从三个维度同时发力监督信号的可靠性、表征的对齐程度以及训练过程的稳定性。基于这三个维度他们设计了五个相互补充的核心组件整个框架的数学基础是一个统一的训练目标公式它综合考虑了每个词汇级别的分歧度量、可靠性权重、词汇掩码以及辅助学习目标。在监督信号可靠性方面研究团队使用了两种机制。第一种叫做多老师一致性Multi-Teacher Agreement。这个方法的灵感来自心理学中的内部群体智慧概念——当多个独立的估计结果高度一致时这个估计很可能是可信的。具体做法是不用真正复制多个模型而是让同一个教师模型在不同的上下文条件下对同一段学生生成的内容进行评分。这些不同的上下文可以是随机采样的示例、通过信息检索找到的相关例子或者是通过提示引导产生的高层次任务描述。如果在所有这些不同视角下教师给出的评分都高度一致那就说明这段内容质量可靠值得用来指导学习如果评分差异很大就说明这个信号不稳定应当降低它对训练的影响权重。这种一致性评估可以在词汇级别评估每个单独的词语是否可靠或者序列级别评估整段内容的整体可靠性进行。第二种机制叫做词汇级对比学习Token-Level Contrastive Learning它的作用是让模型不仅知道什么是对的还要知道什么是差点意思但其实是错的。通过构建正例和反例可以通过提示语言模型生成貌似合理但错误的答案或者通过WordNet、PPDB等工具对正确答案进行语义扰动来生成训练模型在词汇级别上拉近与正确答案的距离同时推开与错误答案的距离使用的是带有容差边界的对比损失函数。在表征对齐方面研究团队引入了特征匹配Feature Matching机制。输出分布的对齐只关注说了什么而特征匹配关注的是怎么想到这个答案的。通过约束学生模型的内部隐状态比如最后一层的向量表示向教师模型的对应位置靠拢可以在结构层面传递更深层的知识相当于不只是抄答案还要学习解题的思维过程。研究测试了两种模式仅匹配表征的版本和同时匹配表征与输出分布的联合版本。在训练稳定性方面研究团队使用了两种机制。指数移动平均教师EMA Teacher解决的是教师信号随时间漂移的问题。在自蒸馏中教师和学生其实是同一个模型的不同状态随着训练的推进学生的参数不断更新教师的信号也在不断变化。如果今天的错误影响了明天的教师信号错误就会像涟漪一样扩散。EMA的做法是对教师的参数进行时间上的平滑处理——用历史参数的加权平均值作为教师衰减系数β控制了历史记忆的长度。这样教师的信号就不会因为某一次的偶然波动而剧烈变化。散度截断Divergence Clipping则解决了另一个问题在训练时少数极度出格的词汇可能产生异常大的学习信号把整个训练方向拉偏。这个机制通过设定一个阈值κ来限制每个词汇的学习信号大小超过阈值的部分被截断确保训练过程平稳进行。所有这些组件共同构成了UniSD*一个将五种机制整合在一起的完整训练流程也是研究中测试的最强版本。三、实验怎么做的六个考场、六位学生为了验证UniSD框架的有效性研究团队设计了一套相当全面的测试方案。在考场基准测试数据集的选择上研究团队使用了六个涵盖四种不同任务类型的数据集。科学推理方面ScienceQA包含覆盖自然科学、社会科学和语言学的选择题共有12726道训练题和4241道测试题GPQA则是只用于测试的专家级问答集包含448道生物、化学和物理题。代码生成方面MBPP包含120道训练题和257道测试题要求模型编写Python程序HumanEval只用于测试共164道函数补全题。常识推理方面CoS-E在常识问答基础上加入了人类撰写的解释包含9741道训练题和1221道测试题。工具使用方面ToolAlpaca包含模拟真实工具调用场景的多步骤交互任务有4046道训练题和68道测试题。其中GPQA和HumanEval作为迁移泛化测试集——模型在其他数据上训练然后在这两个从未见过的领域上接受考验。在学生测试模型的选择上研究团队选取了六个来自三个不同模型家族的语言模型。主力模型是阿里云的Qwen2.5-7B-Instruct所有主要实验都以此模型为核心。为了研究模型规模的影响还额外测试了同家族的0.5B、1.5B和3B版本。为了验证方法在不同架构上的通用性还引入了Meta的Llama-3.1-8B-Instruct和谷歌的gemma-3-4b-it进行跨家族测试。对照组基线方法方面UniSD与五种方法进行了比较原始未经训练的模型Raw、标准的监督微调SFT、三种现有的自蒸馏方法SDFT、GKD和SSD以及OPSD。训练配置统一使用LoRA参数高效微调技术秩为64alpha为128dropout为0.05和AdamW优化器学习率2e-5余弦退火10%预热梯度累积4步bf16混合精度训练1个epoch。在线策略的回答由vLLM以温度0.7生成提示词最大长度3072个token回答最大长度1024个token。测试时使用greedy decoding温度0.0以确保结果的可重复性。四、实验结果数字背后的故事核心结果表格展示了在Qwen2.5-7B上的全面对比。原始模型Raw的综合得分是67.9分SFT达到68.3分现有最强基线GKD达到70.5分而UniSD*以73.3分的综合得分排在第一位比原始模型提升了5.4分比最强基线提升了2.8分。通过仔细分析实验结果研究团队发现了几个重要的规律。首先抄答案式学习静态模仿不如在自己的错误中学习在线策略学习。标准SFT确实能提升某些任务的表现——比如ToolAlpaca提升了4.4分CoS-E提升了0.7分这是因为这类任务的关键在于学习固定的格式和参数结构。但SFT在ScienceQA、GPQA、MBPP和HumanEval上都有所退步。原因在于SFT是一种均值寻求行为——它会把所有可能的正确答案平均化对于那些有多种合理解法的任务比如编程题这种均值化反而会削弱模型的锋芒。在线策略方法则因为是在模型自己生成的内容上学习更符合实际推理时的状态从一开始就提供了更好的起点。其次多老师一致性在提升监督可靠性方面确实有效。词汇级一致性在ScienceQA上取得了85.2分的最高成绩在六个数据集中有四个排名第一或第二序列级一致性更保守但更稳定在所有数据集上都没有退步综合得分72.5分与词汇级的72.2分相比略高。这揭示了一个权衡关系词汇级一致性能更好地利用局部可靠信号实现更高峰值性能序列级一致性提供更稳健的平均表现。在辅助上下文的构建方式上检索式上下文在ScienceQA85.2、GPQA36.2和HumanEval83.5上表现最佳因为语义相似的例子能提供任务特定的证据随机上下文则因多样性而在各任务上保持竞争力归纳式上下文在格式敏感任务如ToolAlpaca词汇级一致性达到77.9特别有用但在CoS-E这类短问答任务上帮助有限。敏感性分析显示更多的上下文数量并不总是带来更好的结果最优的K值因任务和粒度而异强调了互补性上下文的重要性而不是数量的堆砌。第三在单个组件中EMA教师的表现最为突出与序列级一致性并列单组件最高综合得分72.5分。EMA在ToolAlpaca上的提升尤其显著达到77.9分比原始模型高出16.1分这说明对于有严格输出格式要求的生成任务平滑演变的教师目标特别有帮助。对比学习综合得分71.9分略低于均值但它是所有单组件中唯一在全部六个数据集上都有正向提升的方法体现了负样本条件监督作为分离有用教师信号的鲁棒手段的价值。特征匹配的表征对齐有帮助但受益于输出层面的辅助仅表征匹配综合得分71.5联合匹配同时对齐表征和输出分布提升到72.1。散度截断是最保守、计算最高效的组件综合得分70.3适度的收益2.4表明截断主要作为轻量级稳定器而非主要学习信号。第四组合所有互补组件的UniSD*表现最佳。在MBPP74.7、ToolAlpaca77.9、GPQA36.4和HumanEval83.5上排名第一或并列第一在ScienceQA85.0和CoS-E82.2上排名第二。这说明自蒸馏的效果不是单一的需要从多个维度协同发力。具体而言不同组件在不同任务上各有优势EMA在ToolAlpaca上特别有效一致性和UniSD*在ScienceQA和HumanEval上领先UniSD*在MBPP和GPQA上带来最大提升。在跨模型家族的测试中UniSD*在三个不同架构的模型家族上都取得了最强的综合表现相比原始模型的提升分别为Qwen2.5系列5.4分、Llama-3.1系列3.1分、Gemma-3系列2.2分同时优于GKD基线。在18个模型-数据集组合中UniSD*在15个上有提升在2个上持平仅在1个迁移泛化场景下有退步说明可靠性感知的自蒸馏能在不同架构间泛化而不是过拟合某一种骨干网络。CoS-E的收益较小原因在于经过指令调整的大模型已经编码了大量常识知识短答案格式也留下了很小的提升空间。在模型规模的影响方面研究发现UniSD*在Qwen2.5-3B上取得了最大的绝对提升7.06分这个现象颇有意思——中等规模的模型似乎从自蒸馏中获益最多。五、模型有没有变走样分布保持性测试光看任务成绩还不够研究团队还关心一个更深层的问题经过自蒸馏训练后模型有没有变成一个专才——在目标任务上表现更好但在其他方面反而变差了这就好比一个全能运动员为了提高某一项专项成绩结果破坏了整体的运动协调性。为此研究团队测量了两个互补的指标。第一个指标叫做参考答案拟合度。给定一道题和标准答案让训练后的模型在强制提示teacher forcing条件下打分看看训练后的模型是否更倾向于生成标准答案。这个指标反映的是模型能不能更好地预测我们希望它说的话。结果显示自蒸馏方法大幅提升了参考答案的拟合度。在Qwen2.5-7B上原始模型的困惑度PPL为20.74经过一致性、EMA和对比学习训练后困惑度降至5.7到6.1之间。在Gemma-3-4B上原始困惑度高达47.07经过训练后降至10.57到11.24。特征匹配则表现出不太稳定的改善进一步支持了它作为辅助正则化器而非主要监督信号的定位。第二个指标叫做基础分布保持度。对于每个测试提示让训练后的模型自由生成一段回答然后用原始未训练模型来给这段回答打分——如果得分越高说明训练后模型的生成风格还是更接近原始模型保持了原有的个性如果得分越低说明模型已经变得太专业化偏离了原来的风格。结果表明SFT可能造成严重的分布漂移Qwen2.5-7B的保持度困惑度从原始模型的1.14上升到SFT的1.68Gemma-3-4B则从1.27急剧上升到3.02。而可靠性感知的自蒸馏方法通常避免了这种崩溃。对Qwen2.5-7B而言一致性、EMA、对比学习和截断的保持度困惑度保持在1.09到1.13之间非常接近原始模型。EMA教师相对SFT将保持度困惑度降低了33.9%说明平滑演变的教师提供了更兼容分布的目标。在轨迹级别的细粒度分析中研究团队还计算了每个生成回答的词汇级别Jensen-Shannon散度JSD——这个指标衡量训练后模型和原始模型在每一步预测时的差异程度。UniSD*在将ScienceQA准确率从80.8提升到85.0的同时将平均词汇级JSD从SFT的0.054降低到0.041。配对分析进一步显示UniSD*在70.3%的样本上JSD低于SFT均值和中位数差异均为负值基础模型对数概率比较显示UniSD*生成的回答在60.6%的样本上获得了更高的基础模型对数概率。这意味着UniSD*不仅使任务成绩更好而且使模型在生成时的词汇预测分布与原始模型更接近。换句话说它不是通过把模型改造成一个完全不同的专才来提升成绩的而是在保持模型原有特质的基础上让它变得更好。六、代价几何时间与能耗的权衡任何实用的技术都要考虑成本问题。研究团队对不同组件的训练时间和资源消耗进行了详细的分析。单教师稳定化方法在效率上表现出色。联合匹配仅需每百万token消耗0.08千瓦时对比学习和EMA需要0.10千瓦时仅表征匹配需要0.11千瓦时散度截断需要0.09千瓦时。这些变体保持了高吞吐量每GPU小时2.32到3.22百万token说明添加表征、对比或时序稳定化只带来了适度的额外开销。一致性方法则明显更贵。一致性变体每百万token需要0.16到0.18千瓦时峰值内存也增加了约13到17GB21%到28%。以Qwen2.5-7B为例序列级一致性训练大约需要100分钟而SFT只需要18.6分钟。这个额外开销是预期之内的一致性通过在多个辅助上下文下对每个在线策略回答重新打分来估计可靠性增加了教师侧的前向计算量并需要存储额外的提示-回答张量、掩码和对数概率缓冲区。这将吞吐量降低到每GPU小时1.43到1.66百万token暴露了一个清晰的可靠性-成本权衡。内存预算较紧的实现可以通过顺序而非并行处理辅助上下文来降低一致性开销。UniSD*整合所有组件每百万token需要0.26千瓦时吞吐量为每GPU小时0.96百万token峰值内存63.0GB。研究团队建议未来的自蒸馏系统将可靠性估计作为一个有预算的组件来处理昂贵的多视角一致性可以保留给噪声大或高不确定性的样本而更便宜的稳定器如截断、EMA平滑或表征匹配则可以广泛应用。整个测试在配备六块NVIDIA A100 80GB GPU的服务器上进行按照CodeCarbon和MLCO2影响计算器的排放核算方法研究团队基于运行时间估算了能耗使用NVIDIA A100 PCIe 80GB的额定功率300W、假定持续利用率0.7、PUE电源使用效率1.2以及碳强度475gCO2e/kWh进行计算。说到底UniSD这项研究告诉我们的核心信息是AI模型并非一定要找更聪明的老师才能进步。通过精心设计的自我检验和自我纠正机制模型完全可以在自己生成的内容中提炼出有价值的学习信号并且在不损失原有能力的前提下在各种任务上都变得更强。研究横跨六种任务、六个模型和三个模型家族的验证结果说明这不是某个特定场景下的偶然现象而是一种有据可查的、可推广的自我改进路径。这对普通人意味着什么意味着未来我们使用的AI助手有望在更低的成本、更好的隐私保护条件下持续进化不再那么依赖不断向更大、更贵的模型拜师学艺。当然这套方法目前主要针对单轮对话场景进行了验证研究团队也坦承这是未来需要扩展的方向包括长程决策任务、更细粒度的推理过程评估以及更丰富的自监督目标。想深入了解这项研究的全部细节可以通过arXiv编号2605.06597查阅原论文。QAQ1UniSD框架和普通的监督微调SFT有什么本质区别A普通SFT是抄答案——让模型去模仿固定的标准示例属于离线学习模型在训练时接触的内容和它真正推理时生成的内容是不同的这种不匹配会导致泛化能力受限。UniSD则是在自己的练习中学习——让模型先自己生成回答再对这些自己生成的内容进行可靠性评估和监督避免了训练和推理之间的脱节同时通过EMA平滑和散度截断防止自我监督信号的不稳定放大。Q2多老师一致性机制需要多个不同的大模型吗会不会很费钱A不需要多个不同的模型这是UniSD的一个关键设计。所有辅助教师视角都共享同一个教师模型只是在不同的上下文条件下比如随机采样的示例、检索到的相关例子或诱导的任务描述对同一段回答进行打分。这些不同上下文的打分请求可以批量处理避免了持有多个模型副本带来的GPU内存翻倍问题但依然会增加前向计算次数训练时间大约是SFT的5倍。Q3UniSD自蒸馏方法训练完后模型会不会在目标任务变好的同时在其他方面变差A研究通过基础分布保持度测试专门验证了这个问题。结果显示标准SFT确实容易造成分布漂移Gemma-3-4B的保持度困惑度从1.27急剧上升到3.02而UniSD的可靠性感知机制通常避免了这种崩溃大多数变体的保持度困惑度与原始未训练模型非常接近。EMA教师相比SFT将保持度困惑度降低了33.9%UniSD*在提升ScienceQA准确率的同时词汇级JSD也低于SFT说明它是在保持模型原有特质的基础上变好的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2613288.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…