DeepSeek 架构深度解析:从原理到实践的完整指南

news2026/4/4 16:04:11
引言重新定义大模型效率的国产之光2024年12月DeepSeek-V3的技术报告正式发布迅速在AI社区引发轰动。这款拥有671B总参数的混合专家模型以仅557万美元的训练成本——不到GPT-4传闻训练成本的1/10——实现了与GPT-4o和Claude-3.5-Sonnet等顶尖闭源模型相当的性能。更令人惊叹的是其完整训练仅需2.788M H800 GPU小时预训练阶段在不到两个月内完成。DeepSeek的成功并非偶然。它代表了一种全新的设计哲学在算力约束日益凸显的今天架构创新比单纯堆砌参数更能决定大模型的竞争力。本文将从核心架构、训练优化、推理部署、性能评估到开发实践五个维度对DeepSeek展开全方位的技术解读力求为读者呈现一幅完整的技术图景。一、核心架构MLA与MoE的双轮驱动DeepSeek-V3的设计遵循system-algorithm co-design原则核心思路是通过Multi-head Latent AttentionMLA和DeepSeekMoE架构实现高效的推理和成本效益的训练。前者旨在降低KV cache/token开销后者旨在降低flops/param开销。1.1 MLA多头潜在注意力让长上下文不再昂贵1.1.1 传统多头注意力的困境在标准Transformer架构中多头注意力MHA通过并行计算多个注意力头来捕捉不同维度的特征交互。然而MHA存在两个核心缺陷计算冗余性每个注意力头独立计算Q、K、V矩阵导致参数量随头数线性增长。KV缓存爆炸推理时需缓存所有历史token的Key和Value内存占用随序列长度线性增长。对于长上下文场景如128K tokenKV缓存可轻松达到数十GB成为推理部署的主要瓶颈。传统解决方案包括Grouped-Query AttentionGQA和Multi-Query AttentionMQA但这些方法以牺牲模型表达能力为代价换取内存效率。1.1.2 MLA的核心思想低秩联合压缩MLA是DeepSeek在注意力机制上的核心创新其思想可以概括为通过低秩分解将多个头的Key和Value联合压缩到一个共享的潜在空间中。具体而言MLA对每个注意力头的键和值进行低秩联合压缩将维度从d_model大幅压缩至d_c通常d_c远小于d_model。这种设计的精妙之处在于KV缓存大幅压缩不需要缓存每个头的完整K、V矩阵只需缓存压缩后的潜在向量。DeepSeek-V3中KV缓存大小每token仅需70KB仅为传统方法的1/7至1/4。保持多头的表达能力压缩后的潜在向量可以在推理时解压缩为完整的多头表示相比GQA/MQA方法保留了更强的特征表达能力。系统复杂度与收益的权衡MLA通过类似LoRA的方式对KV进行降维压缩同时将升维操作转移到Q和O上避免反复解压缩。1.1.3 技术实现细节从参数规模来看DeepSeek-V3的注意力配置如下模型维度d7168KV联合压缩维度d_c512压缩比约14:1Query低秩压缩维度d‘_c1536去耦合共享Key每头d_R^h64用于优化长上下文的数值稳定性MLA的核心公式可表示为压缩阶段将高维的K和V通过投影矩阵W_KV_down压缩为低维潜在向量c_KV。解压缩阶段推理时通过W_KV_up将c_KV解压缩回原始维度再拆分为各个头的K和V。去耦合设计将Key的压缩部分与共享部分解耦避免长序列中的数值累积误差。这种设计使得DeepSeek-V3能够高效处理128K上下文窗口同时在V3.1版本中进一步扩展至100万token。1.2 MoE混合专家系统稀疏激活的计算革命如果说MLA解决了注意力部分的内存瓶颈那么MoE则是DeepSeek实现计算效率飞跃的另一关键支柱。1.2.1 经典MoE的问题传统MoE架构将Transformer中的FFN替换为由多个“专家”组成的MoE层每个专家本质是一个小型FFN网络。当输入token时门控网络根据亲和度分数决定激活哪几个专家。然而经典MoE存在两个主要问题知识混杂使用较少的专家时同一专家被迫处理多种不同类型的知识如数学推理和情感分析降低了专家的专业化程度。知识冗余多个专家重复存储相同的基础知识导致参数浪费。1.2.2 DeepSeekMoE的细粒度设计DeepSeekMoE通过两项关键设计解决上述问题细粒度专家划分在保持总参数不变的前提下通过拆分FFN的中间隐藏层维度将专家进行更细粒度的拆分。DeepSeek-V3采用了极其激进的设计——引入256个路由专家每个token激活8个专家。相比V2的236B总参数21B激活V3的总参数量达到671B而激活参数量仅增加到37B稀疏程度大幅提升。共享专家隔离在每个MoE层中除256个路由专家外还包含1个共享专家。共享专家处理所有token的基础特征使路由专家能够专注于差异化的专业知识有效解决了知识冗余问题。1.2.3 无辅助损失负载均衡MoE模型面临的经典挑战是负载不均衡——某些专家被频繁使用而其他专家几乎闲置。传统方案通过引入辅助损失函数来鼓励负载均衡但过大的辅助损失可能影响模型性能。DeepSeek-V3首创了无辅助损失的负载均衡策略auxiliary-loss-free。其核心机制是为每个专家维护一个动态可更新的偏置项b_i。计算亲和度分数s_i,t时将偏置项加入。偏置的更新规则由γ参数控制前14.3T token时γ0.001后续γ0.0确保负载均衡的渐进性。引入序列内平衡损失L_Bal α∑(f_i·P_i)其中α0.0001防止单序列内的专家使用失衡。消融研究显示在15.7B和228.7B参数的模型上这种无辅助损失策略优于传统辅助损失方法。为进一步优化分布式训练中的动态负载不均衡问题DeepSeek还开源了LPLBLinear Programming Load Balancer利用线性规划算法优化MoE模型中的专家并行工作负载分配。1.2.4 路由机制的完整流程DeepSeek-V3的MoE路由机制可概括为以下步骤亲和度计算对每个专家计算亲和度分数使用sigmoid函数进行归一化。偏置调整将动态偏置项加到亲和度分数上实现无辅助损失的负载均衡。Top-K选择选择亲和度最高的前8个专家K8并将门控值归一化。节点限制每个token最多发送到4个节点M4确保跨节点通信效率。输出融合将激活专家的输出加权求和与原始输入相加后输出。1.3 MTP多令牌预测训练效率的又一突破除MLA和MoE外DeepSeek-V3还引入了多令牌预测Multi-Token Prediction, MTP训练目标。传统的语言模型训练每次只预测下一个token而MTP在一次前向传播中同时预测多个未来的token。MTP的优势在于训练效率提升每次前向传播提供更多的学习信号加速模型收敛。推理加速结合投机采样speculative decoding技术在推理时用MTP头生成多个候选token大幅降低解码延迟。从技术报告来看MTP是一个“训练技巧大于架构革新”的创新但它在DeepSeek-V3的成功中起到了不可忽视的作用。1.4 其他组件与整体架构参数DeepSeek-V3在底层组件上也做了精心选择RoPERotary Positional Encoding更好地处理长序列和相对位置关系。RMS Norm计算上更简单的归一化不包含均值中心化降低计算开销。SwiGLU Activation门控激活函数优化信息流控制。整体架构参数如下参数项规格总参数量671B每token激活参数量37BTransformer层数61层模型维度d7168词表大小128KByte-level BPE分词MoE专家数1共享专家 256路由专家每token激活专家数8上下文窗口128KV3.1扩展至1M二、训练技术效率与稳定性的双重突破DeepSeek-V3的训练过程充分体现了“降本增效”的设计哲学。从数据工程到并行策略从混合精度到通信优化每一个环节都经过了精心设计。2.1 数据工程质量驱动的数据策略DeepSeek-V3在14.8万亿个多样化且高质量的token上进行了预训练随后通过监督微调和强化学习阶段充分发挥其潜力。数据成本通常占AI训练总成本的60%以上DeepSeek-V3通过三项关键技术实现数据效率最大化合成数据生成基于领域知识图谱构建结构化知识库通过规则引擎生成逻辑自洽的文本对。同时利用GPT-4等模型生成对抗样本构建鲁棒性训练集。主动学习通过不确定性采样动态调整数据权重对低置信度样本赋予更高权重优先优化模型薄弱环节。数据蒸馏将大模型输出作为弱监督信号筛选高置信度样本加入训练集数据需求量可减少70%。2.2 FP8混合精度训练打破精度与效率的trade-offDeepSeek-V3是首个至少在开源社区内成功使用FP8混合精度训练得到的大规模MoE模型。FP8训练面临的核心挑战在于数值溢出的风险而MoE训练本身的不稳定性又加剧了这一问题。DeepSeek的解决方案包括统一使用E4M3格式在训练过程中全程使用E4M3避免不同格式之间的切换损失。细粒度量化采用per-tile1×128和per-group128×128的细粒度量化策略有效降低异常值带来的量化误差。选择性高精度计算对RMSNorm、MLA Up-Proj、SwiGLU等关键操作使用BF16进行选择性重计算确保数值稳定性。FP8的使用不仅提升了计算效率还显著节省了显存——尤其是激活值的存储。显存优化使得DeepSeek能够设计更好的并行策略甚至减少或消除张量并行的使用。2.3 并行策略与通信优化DeepSeek-V3的分布式训练采用三层并行策略64路专家并行将不同专家分布在不同的GPU上MoE架构天然适合这种并行方式。专家并行会引入all-to-all通信由于每个token激活8个专家通信量相当可观。16路流水线并行将模型按层切分到不同设备实现计算与通信的重叠。数据并行ZeRO1对优化器状态和梯度进行分片进一步降低显存占用。在通信优化方面DeepSeek采用以下技术梯度压缩使用Top-K稀疏化仅传输梯度绝对值最大的10%元素结合FP16到INT8量化使通信量减少90%。计算与通信重叠通过CUDA流实现梯度计算与传输的并行化。动态损失缩放在FP16训练中解决梯度下溢问题在保持精度的同时降低50%显存占用。2.4 训练成本557万美元的奇迹最令业界惊叹的是DeepSeek-V3的训练成本。根据技术报告预训练阶段使用2664K GPU小时上下文长度扩展使用119K GPU小时后训练使用5K GPU小时完整训练成本仅为2.788M H800 GPU小时。以H800 GPU每小时2美元的租金计算总训练成本仅557万美元。更具体地说训练每trillion数据的GPU小时数仅为180K意味着在2048个H800 GPU的集群上只需3.7天即可完成1T token的训练。尤为值得一提的是训练稳定性整个训练过程中没有遇到任何不可恢复的损失激增也没有进行任何回滚操作。2.5 上下文窗口扩展从128K到100万DeepSeek-V3原生支持128K的上下文窗口。在V3.1版本中通过进一步的技术优化上下文窗口扩展至100万token。这一突破主要得益于MLA的KV缓存压缩能力使得长序列推理时的内存占用保持在可控范围。位置编码的优化使模型能够在更长序列上保持位置感知能力。训练阶段的渐进式长度扩展策略。三、推理与部署从实验室到生产环境3.1 推理显存分析DeepSeek-V3的推理显存占用由三部分组成模型权重静态占用FP16下671B参数需约134GB。KV缓存随序列长度线性增长得益于MLA每token仅需约70KB。中间激活值与计算图复杂度相关。不同量化方案对显存需求的影响显著量化方案精度671B模型显存需求FP3232位268GBFP1616位134GBINT88位67GBW4A164位权重/16位激活33.5GB3.2 量化优化技术量化是降低推理显存和提升推理速度的关键手段。DeepSeek部署中常用的量化方案包括GPTQ 4位量化可将67B模型显存占用降至34GB精度损失小于2%。GGUF量化支持Q8_0和Q4_0等格式在24GB GPU如RTX 4090上可实现1-3 token/s的推理速度。INT8量化可将模型体积压缩至FP16的1/4理论加速比达2倍。3.3 分布式推理策略对于单卡无法容纳的模型分布式推理是必经之路NVLink互联通过NVLink桥接器实现多卡显存聚合双A100 80GB显卡通过NVLink互联后等效显存可达160GB带宽提升6倍至600GB/s。张量并行将矩阵乘法拆分为多卡并行计算适用于单层计算量大的场景。专家并行将不同专家分布在不同的GPU上适合MoE架构。实测数据显示在8卡A100集群上处理1000并发请求时QPS每秒查询数可达3200。3.4 常用推理框架与部署方案vLLM支持高吞吐量推理通过PagedAttention优化KV缓存管理。SGLang专为大型语言模型设计的推理框架提供更高效的前缀缓存和结构化生成能力。Text Generation Inference (TGI)Hugging Face生态的主流推理框架支持连续批处理和流式输出。四、DeepSeek-R1强化学习驱动的推理革命在DeepSeek-V3的基础上团队推出了DeepSeek-R1这是一款以强化学习为核心驱动力的推理模型。R1的论文登上《Nature》封面标志着大模型从“记忆式学习”向“思考式推理”的范式跨越。4.1 R1的训练路径四阶段方法论根据DeepSeek补充发布的技术报告R1的训练分为四个阶段第一步冷启动。用数千条能够体现思考过程的CoTChain-of-Thought数据对模型进行SFT建立基本的推理行为模式。第二步推理导向RL。在不破坏对话思考风格的前提下继续提升模型能力同时引入语言一致性奖励解决推理过程中语种混用的问题。第三步拒绝采样和再微调。同时加入推理数据和通用数据让模型既会推理、也会写作实现能力的平衡发展。第四步对齐导向RL。打磨模型的有用性和安全性使整体行为更贴近人类偏好。团队构建了包含10.6万条提示的安全数据集采用点式训练方法训练安全奖励模型。4.2 Aha Moment推理能力的涌现现象在R1-Zero的训练过程中DeepSeek观察到了一个有趣的涌现现象——模型会在某个时刻突然“学会”反思。团队通过分析反思性词汇如“wait”、“mistake”、“however”等的出现频率来量化这一现象。结果显示随着训练推进这些反思性词汇的出现次数相比训练初期增长了5到7倍。尤为有趣的是不同反思习惯的形成时序——以“wait”为例在训练早期几乎从不出现但在8000步后突然出现明显的峰值曲线。4.3 安全性与风险控制DeepSeek-R1通过双流程风险控制系统保障模型安全性潜在风险对话过滤每轮对话结束后系统将用户输入与安全关键词进行匹配一旦命中即标记为不安全对话。基于模型的风险审查将标记的不安全对话与预设的风险审查提示拼接发送给DeepSeek-V3进行评估判断是否拦截。五、性能评估开源模型的顶尖水平5.1 核心基准测试表现DeepSeek-V3在多项权威基准测试中表现出色。根据V3技术报告和V3.1版本的数据评测基准V3基础版说明MMLU (EM)87.1百科知识理解MMLU-Pro75.9 (V3) → 81.2 (V3.1)更难的MMLU变体GSM8K89.3小学数学推理GPQA-Diamond59.1 (V3) → 68.4 (V3.1)研究生级问答MATH61.6数学竞赛级问题HumanEval Pass165.2代码生成V3.1版本在MMLU-Pro上提升了5.3个百分点在GPQA-Diamond上提升了9.3个百分点显示出持续优化的能力。5.2 与竞品模型对比在与其他主流模型的对比中MMLU基准GPT-4o以86.3%领先DeepSeek-V380.5%紧随Claude-3.582.1%之后超越Llama3.178.9%和Qwen2.576.2%。代码能力在算法类代码场景Codeforces上DeepSeek-V3远远领先于市面上所有非o1类模型在工程类代码场景SWE-Bench Verified上逼近Claude-3.5-Sonnet。数学能力在美国数学竞赛AIME 2024和全国高中数学联赛上DeepSeek-V3大幅超过所有开源和闭源模型。中文能力与Qwen2.5-72B在C-Eval上表现相近在事实知识C-SimpleQA上更为领先。DeepSeek-R1在MATH数据集上达到68.2%的准确率较GPT-4提升22个百分点。5.3 推理效率对比在推理效率方面DeepSeek-V3的MoE架构带来了显著优势。DeepSeek-V3采用256个专家的细粒度MoE设计每token仅激活37B参数相比同规模的稠密模型计算量大幅降低。实测数据显示在A100 80GB GPU上V3版本的推理延迟约为95msbatch1优于R1-175B的120ms。六、开发实践从API到本地部署6.1 API快速接入DeepSeek API兼容OpenAI接口现有GPT项目可无缝迁移。基础调用示例Pythonpythonimport requests API_KEY your_api_key API_URL https://api.deepseek.com/v1/chat/completions headers { Authorization: fBearer {API_KEY}, Content-Type: application/json } data { model: deepseek-chat, messages: [{role: user, content: 你的问题}], temperature: 0.7, search_enable: True # 启用联网搜索 } response requests.post(API_URL, headersheaders, jsondata) print(response.json()[choices][0][message][content])关键参数说明search_enable是否启用联网搜索默认关闭temperature生成随机性0.0-1.0企业场景建议0.3-0.7max_tokens限制返回长度避免冗余输出最佳实践使用环境变量存储API Key避免硬编码建议每3个月更新一次API Key通过API网关设置调用白名单使用流式输出streamTrue提升用户体验6.2 多轮对话管理通过conversation_id实现上下文保持pythondata { model: deepseek-chat, messages: [ {role: user, content: 推荐三款50万内SUV}, {role: assistant, content: 推荐车型A、B、C}, {role: user, content: A车型的续航里程是多少} ], conversation_id: prev_conversation_id # 复用上下文 }6.3 本地部署指南硬件选型建议训练场景优先选择NVIDIA H100/H200支持TF32和FP8精度推理场景AMD MI300X性价比更高192GB HBM3e消费级显卡RTX 409024GB适合部署7B-13B模型通过量化可运行更大模型量化部署示例使用GPTQ 4位量化pythonfrom optimum.gptq import GPTQForCausalLM model GPTQForCausalLM.from_pretrained( deepseek-ai/DeepSeek-V2, model_filepathmodel.bin, tokenizerdeepseek-ai/DeepSeek-V2, devicecuda:0, quantize_config{bits: 4, group_size: 128} )使用vLLM部署bashpython -m vllm.entrypoints.api_server \ --model deepseek-ai/DeepSeek-V3 \ --tensor-parallel-size 4 \ --max-model-len 8192七、未来展望7.1 技术演进方向DeepSeek-V3.2引入了DeepSeek Sparse Attention进一步优化长上下文推理效率——MLA压缩KV缓存而DeepSeek Sparse Attention则减少模型需要回溯的历史上下文量。这一技术组合有望将上下文窗口进一步扩展至数百万token。在MoE领域LPLB的持续优化将进一步解决动态负载不均衡问题提升分布式训练效率。7.2 开源生态影响DeepSeek的完整开源策略对整个AI社区产生了深远影响。模型检查点、技术细节、甚至训练方法论都向社区开放使得更多研究者和开发者能够在前沿大模型的基础上进行创新。正如技术报告中所述“尽管性能出色DeepSeek-V3的完整训练仅需2.788M H800 GPU小时。此外其训练过程非常稳定。在整个训练过程中我们没有遇到任何不可恢复的损失激增或进行任何回滚操作。”这种稳定性和开放性为开源大模型的发展树立了新的标杆。结语DeepSeek的崛起证明了一个重要的技术判断在通往AGI的道路上架构创新的边际收益正在超越单纯扩大规模的边际收益。MLA解决了长上下文的内存瓶颈MoE重构了计算效率的边界RL为推理能力开辟了新的可能而FP8训练和精妙的并行策略则让一切变得可负担。从671B参数的庞大规模到557万美元的惊人成本从128K的上下文窗口到100万token的跨越从70%的基准得分到逼近顶级闭源模型的性能——DeepSeek用一系列数据和事实证明开源模型有能力在架构创新的驱动下与闭源巨头在同一维度上展开竞争。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2482734.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…