深度解析ConcurrentHashMap设计演进:从分段锁到无锁化的并发之路

news2026/3/27 2:54:47
在Java并发编程领域ConcurrentHashMap绝对是“并发容器扛鼎之作”——它既解决了HashMap并发环境下的数据不一致死循环、数据丢失问题又突破了Hashtable全表锁的性能瓶颈成为高并发场景下K-V存储的首选。自JDK1.5引入以来ConcurrentHashMap的设计历经三次重大迭代核心演进逻辑围绕“降低锁粒度、提升并发效率、优化内存占用”展开从JDK1.7的分段锁、JDK1.8的CAS桶级锁到JDK17的JVM层面优化每一步都体现着并发设计的精髓。本文将从底层结构、并发控制、核心源码、优缺点等维度详细拆解其设计演进全过程帮你彻底搞懂这一并发神器。前言为什么需要ConcurrentHashMap在ConcurrentHashMap出现之前Java中用于K-V存储的容器主要有两个选择但都存在明显缺陷HashMap线程不安全多线程并发读写时会出现链表环JDK1.7、数据覆盖、死循环等问题根本无法用于高并发场景Hashtable通过对所有方法加synchronized实现线程安全本质是“全表锁”——所有线程无论操作哪个key都要竞争同一把锁并发效率极低高并发下会出现严重的性能瓶颈。为了解决“线程安全”与“高并发性能”的矛盾JDK1.5引入了ConcurrentHashMap其核心设计思路是“细粒度锁”通过拆分锁的保护范围让多个线程可以同时操作不同的数据区域从而提升并发吞吐。而后续的版本演进都是对这一思路的不断优化和突破。第一阶段JDK1.7——分段锁Segment时代的妥协与突破JDK1.7的ConcurrentHashMap核心设计是“分段锁Segment”本质是“分治思想”的落地——将整个哈希表拆分为多个独立的“小哈希表”Segment每个Segment对应一把独立的锁线程操作时仅需锁定目标Segment而非整个哈希表实现“不同段并行同段串行”。1.1 核心底层结构JDK1.7的ConcurrentHashMap采用三层嵌套结构Segment数组 HashEntry数组 单向链表具体结构如下// JDK1.7 ConcurrentHashMap核心结构 class ConcurrentHashMap { final SegmentK,V[] segments; // 分段锁数组默认长度16 transient int segmentMask; // 段掩码用于定位Segment的索引 transient int segmentShift; // 段偏移量辅助计算Segment索引 final int concurrencyLevel; // 并发级别决定Segment数组初始长度默认16 } // Segment本质是一个“小Hashtable”继承自ReentrantLock可重入锁 class SegmentK,V extends ReentrantLock { transient HashEntryK,V[] table; // 每个Segment内部的哈希桶数组 transient int count; // 当前Segment中的元素数量 transient int modCount; // 修改次数用于快速失败 transient int threshold; // 扩容阈值 final float loadFactor; // 负载因子 } // 数据存储节点保证并发可见性 class HashEntryK,V { final int hash; final K key; volatile V value; // volatile修饰value保证多线程可见性 volatile HashEntryK,V next; // volatile修饰next保证链表节点变更可见 }关键细节说明Segment数组默认长度16由并发级别concurrencyLevel决定默认16初始化后不可扩容每个Segment对应一把ReentrantLock独立控制并发HashEntry不可变设计key和hash用final修饰避免节点核心标识被篡改value和next用volatile修饰保证多线程下的可见性——一个线程修改后其他线程能立即感知并发级别理论上Segment数组的长度就是ConcurrentHashMap支持的最大并发数默认16意味着最多支持16个线程同时对不同Segment执行写操作互不阻塞。1.2 核心并发控制逻辑1.2.1 哈希定位两次哈希均匀分散冲突为了让key均匀分布到不同Segment避免所有key集中在一个Segment导致分段锁失效所有线程竞争同一把锁JDK1.7采用两次哈希的方式第一次哈希对key的hashCode()进行二次扰动内部hash方法减少哈希冲突得到全局哈希值第二次哈希用全局哈希值通过位运算定位到具体的Segmenthash segmentMask再在该Segment内部通过哈希定位到具体的HashEntry桶。// JDK1.7 二次哈希算法减少冲突 private static int hash(int h) { h (h 15) ^ 0xffffcd7d; h ^ (h 10); h (h 3); h ^ (h 6); h (h 2) (h 14); return h ^ (h 16); } // 定位Segment索引 private int segmentFor(int hash) { return hash (segments.length - 1); // 位运算替代取模效率更高 }1.2.2 读操作全程无锁依赖volatile保证可见性JDK1.7的get方法全程无锁这是其高性能的核心原因之一核心保障来自两点HashEntry的value和next用volatile修饰保证多线程下的可见性——写操作修改value或next后读线程能立即看到最新值避免脏读写操作仅对目标Segment加锁同一Segment内的写操作串行执行不会出现多线程同时修改链表的情况读操作无需加锁即可保证数据一致性。get方法流程计算hash → 定位Segment → 定位HashEntry桶 → 遍历链表查找key → 返回value全程无锁。1.2.3 写操作分段加锁保证串行执行写操作put、remove等需要对目标Segment加锁确保同一Segment内的写操作串行避免数据不一致核心流程以put为例计算hash定位到目标Segment调用Segment的lock()方法加锁ReentrantLock的锁机制在Segment内部遍历HashEntry链表判断key是否已存在存在则更新value不存在则插入新的HashEntry节点更新Segment的count和modCount判断是否需要扩容仅当前Segment扩容调用unlock()释放锁。1.3 扩容机制Segment独立扩容不影响全局JDK1.7的ConcurrentHashMap扩容仅针对单个Segment而非整个哈希表流程如下当某个Segment的元素数量达到其阈值threshold 容量 × 负载因子时触发扩容对该Segment加锁将其内部的HashEntry数组容量翻倍扩容为原来的2倍将原数组中的HashEntry节点重新哈希迁移到新数组中释放锁完成扩容。优点扩容仅影响单个Segment其他Segment可正常读写减少扩容对全局并发的影响缺点扩容逻辑复杂且无法多线程协同扩容单Segment扩容时效率较低。1.4 JDK1.7的优缺点总结优点解决了Hashtable全表锁的性能瓶颈通过分段锁实现多线程并行操作并发效率提升明显读操作无锁性能优异依赖volatile保证可见性无需额外锁开销ReentrantLock支持可重入避免同一线程多次获取同一Segment锁导致的死锁问题。缺点锁粒度仍偏大每个Segment包含多个哈希桶竞争同一Segment的线程仍需排队热点Segment会成为性能瓶颈空间利用率低Segment数组初始化后不可扩容默认16个Segment会占用额外内存且每个Segment内部的HashEntry数组也会有空闲空间扩容复杂且低效仅支持单个Segment扩容无法多线程协同扩容时该Segment的写操作会被阻塞查询效率有限哈希冲突时仅用链表存储极端情况下链表长度过长查询复杂度为O(n)。第二阶段JDK1.8——CAS桶级锁的革命性优化JDK1.8彻底抛弃了JDK1.7的Segment分段锁设计核心优化方向是“进一步降低锁粒度、引入无锁操作、优化数据结构”采用数组链表红黑树的底层结构结合CAS无锁操作和synchronized桶级锁实现了更高的并发效率和内存利用率同时简化了整体设计。这一迭代的核心背景JDK1.8对synchronized进行了重大优化引入偏向锁、轻量级锁、重量级锁的升级机制synchronized的性能已接近ReentrantLock同时CAS无锁操作的引入进一步减少了锁开销让并发效率再上一个台阶。2.1 核心底层结构JDK1.8的ConcurrentHashMap摒弃了Segment采用与JDK1.8 HashMap同源的结构但增加了并发控制相关的优化核心结构如下// JDK1.8 ConcurrentHashMap核心结构 class ConcurrentHashMapK,V { transient volatile NodeK,V[] table; // 哈希桶数组volatile修饰保证可见性 transient NodeK,V[] nextTable; // 扩容时的临时新数组 private transient volatile long baseCount; // 基础元素计数 private transient volatile int sizeCtl; // 扩容控制标识负数表示正在扩容正数表示扩容阈值 private transient volatile CounterCell[] counterCells; // 并发计数单元格减少计数冲突 } // 基础链表节点 static class NodeK,V implements Map.EntryK,V { final int hash; final K key; volatile V val; // volatile修饰value保证可见性 volatile NodeK,V next; // volatile修饰next保证链表变更可见 // 构造方法、get/set等方法 } // 红黑树包装节点不直接存储数据仅维护红黑树结构 static final class TreeBinK,V extends NodeK,V { TreeNodeK,V root; // 红黑树根节点 volatile TreeNodeK,V first; // 链表头节点树化前的链表 // 红黑树的插入、删除、平衡等方法 } // 扩容标记节点用于引导线程协助扩容 static final class ForwardingNodeK,V extends NodeK,V { final NodeK,V[] nextTable; // 指向扩容后的新数组 ForwardingNode(NodeK,V[] tab) { super(MOVED, null, null, null); // hash值为MOVED-1标记当前桶正在扩容 this.nextTable tab; } }关键细节说明Node数组直接作为哈希桶数组volatile修饰保证数组引用的可见性避免指令重排三大核心节点Node基础链表节点存储key、value、hash和nextvolatile修饰val和nextTreeBin红黑树包装节点当链表长度≥8且数组长度≥64时链表转为红黑树查询复杂度从O(n)降至O(log n)ForwardingNode扩容专用标记节点hash值为MOVED-1占位在旧数组的桶中引导其他线程协助扩容而非阻塞等待。sizeCtl核心控制字段不同值代表不同状态sizeCtl 0表示扩容阈值默认是数组容量 × 负载因子sizeCtl 0表示数组未初始化sizeCtl 0表示正在扩容其中-1表示扩容正在进行-N表示有N-1个线程正在协助扩容。2.2 核心并发控制逻辑CAS桶级锁JDK1.8的并发控制核心是“CAS无锁操作 synchronized桶级锁”锁粒度从JDK1.7的“Segment”降至“单个哈希桶”并发度大幅提升——理论上哈希桶的数量就是最大并发数远超JDK1.7的默认16个并发。2.2.1 读操作全程无锁性能更优JDK1.8的get方法延续了“无锁”设计且优化了读逻辑全程无需加锁核心保障的是Node数组和Node节点的val、next都用volatile修饰保证内存可见性——写操作修改后读线程能立即看到最新值Node节点的key和hash用final修饰避免节点被篡改保证读操作的一致性红黑树的读操作无需加锁因为红黑树的结构变更插入、删除会通过synchronized锁保证串行读操作不会受到影响。get方法流程计算hash → 定位哈希桶 → 遍历链表/红黑树查找key → 返回value全程无锁。2.2.2 写操作CAS无锁兜底synchronized细粒度锁写操作put、remove等的核心逻辑是“能无锁则无锁需加锁则细粒度加锁”以put方法为例底层由putVal方法实现完整流程如下public V put(K key, V value) { return putVal(key, value, false); } final V putVal(K key, V value, boolean onlyIfAbsent) { // 关键ConcurrentHashMap不允许key或value为null与并发语义相关 if (key null || value null) throw new NullPointerException(); int hash spread(key.hashCode()); // 哈希扰动减少冲突 int binCount 0; for (NodeK,V[] tab table;;) { NodeK,V f; int n, i, fh; // 1. 哈希桶数组未初始化CAS竞争初始化权 if (tab null || (n tab.length) 0) tab initTable(); // 2. 目标桶为空CAS无锁插入节点无锁操作高效 else if ((f tabAt(tab, i (n - 1) hash)) null) { if (casTabAt(tab, i, null, new NodeK,V(hash, key, value, null))) break; // CAS成功插入完成无需加锁 } // 3. 目标桶正在扩容存在ForwardingNode协助扩容 else if ((fh f.hash) MOVED) tab helpTransfer(tab, f); // 4. 目标桶有数据加锁synchronized操作链表/红黑树 else { V oldVal null; synchronized (f) { // 仅锁定当前桶的头节点锁粒度极小 // 双重检查防止头节点被其他线程修改 if (tabAt(tab, i) f) { // 链表节点hash≥0遍历插入/更新 if (fh 0) { binCount 1; for (NodeK,V e f;; binCount) { K ek; // key已存在更新value if (e.hash hash ((ek e.key) key || key.equals(ek))) { oldVal e.val; if (!onlyIfAbsent) e.val value; break; } NodeK,V pred e; // 遍历到链表尾部插入新节点 if ((e e.next) null) { pred.next new NodeK,V(hash, key, value, null); break; } } } // 红黑树节点TreeBin执行红黑树插入 else if (f instanceof TreeBin) { NodeK,V p; binCount 2; if ((p ((TreeBinK,V)f).putTreeVal(hash, key, value)) ! null) { oldVal p.val; if (!onlyIfAbsent) p.val value; } } } } } // 5. 链表长度≥8尝试树化数组长度≥64才真正树化否则优先扩容 if (binCount ! 0) { if (binCount TREEIFY_THRESHOLD) treeifyBin(tab, i); if (oldVal ! null) return oldVal; break; } } // 6. 更新元素计数判断是否需要扩容 addCount(1L, binCount); return null; }写操作的核心亮点CAS无锁插入当目标桶为空时直接通过CAS操作插入节点无需加锁减少锁开销桶级synchronized锁仅对有数据的桶的头节点加锁不同桶的写操作可并行锁粒度降至最小协助扩容当线程发现目标桶存在ForwardingNode正在扩容时会主动协助扩容提升扩容效率链表树化解决极端情况下链表过长的查询性能问题查询复杂度从O(n)降至O(log n)。2.3 扩容机制多线程协同扩容高效无阻塞JDK1.8的扩容机制相比JDK1.7有了质的提升核心是“多线程协同扩容”扩容期间仍可正常读写无需阻塞所有操作流程如下当元素数量达到扩容阈值sizeCtl时由当前线程发起扩容将sizeCtl设为-1标记正在扩容并创建新的nextTable容量为原数组的2倍发起扩容的线程将原数组的哈希桶分段每个线程负责迁移一段桶的数据其他线程执行写操作时若发现目标桶存在ForwardingNode标记该桶已迁移会主动协助迁移其他未迁移的桶迁移完成后将table指向nextTable更新sizeCtl为新的扩容阈值扩容结束。关键优化通过ForwardingNode引导多线程协同扩容避免单线程扩容的性能瓶颈扩容期间未迁移的桶可正常写操作已迁移的桶会被引导到新数组保证读写不阻塞。2.4 计数机制baseCount CounterCells解决并发计数冲突JDK1.7的size()方法需要汇总所有Segment的count存在“弱一致”问题汇总过程中可能有Segment被修改且高并发下计数冲突严重。JDK1.8引入了“baseCount CounterCells”的计数机制类似LongAdder的设计分散计数热点baseCount基础计数低并发场景下直接更新baseCount无冲突CounterCells计数单元格数组高并发场景下若更新baseCount出现冲突会将计数分散到不同的CounterCells中减少竞争size()方法汇总baseCount和所有CounterCells的值虽然仍为“弱一致”无需加锁可能存在轻微误差但性能大幅提升且满足高并发场景的需求。2.5 JDK1.8的优缺点总结优点锁粒度极小从Segment锁降至桶级锁并发度大幅提升支持更多线程同时操作无锁优化空桶插入采用CAS无锁操作减少锁开销提升写操作效率数据结构优化链表转红黑树解决极端场景下的查询性能问题多线程协同扩容扩容效率高且扩容期间不阻塞读写操作内存利用率高摒弃Segment结构减少额外内存占用计数机制优化baseCount CounterCells解决高并发计数冲突性能更稳。缺点实现复杂CAS操作、协同扩容、红黑树维护等逻辑比JDK1.7复杂得多synchronized锁仍有开销虽然锁粒度小但高并发下同一桶的竞争仍会导致线程阻塞弱一致问题size()方法仍为弱一致无法保证获取到实时的元素数量但满足绝大多数并发场景。第三阶段JDK17——性能优化的持续迭代无核心结构变更JDK17作为Java的长期支持版本LTS并未改变ConcurrentHashMap的核心设计仍为CAS桶级锁数组链表红黑树而是通过JVM层面的优化间接提升其并发性能核心优化点集中在“减少开销、提升执行效率”上3.1 核心优化点JVM垃圾回收优化引入ZGC、Shenandoah等低延迟垃圾回收器减少GC停顿对ConcurrentHashMap并发操作的影响——高并发场景下GC停顿会导致线程阻塞低延迟GC能有效提升整体吞吐Graal编译器优化Graal编译器对CAS操作、synchronized锁进行了智能优化如代码内联、逃逸分析减少锁的切换开销提升并发操作的执行效率并发计数优化微调CounterCell的实现解决伪共享问题——多核CPU下CounterCells数组的元素若处于同一缓存行会导致缓存竞争优化后减少缓存冲突提升计数性能细节优化优化红黑树的平衡逻辑、减少volatile变量的读写开销进一步提升查询和写操作的性能。3.2 性能提升数据根据实测数据4核CPU10线程并发读写100万次JDK8相比JDK7ConcurrentHashMap的吞吐量提升约30%95%延迟从20ms降至5ms以内JDK17相比JDK8吞吐量进一步提升约15%尤其在大内存、高并发场景下延迟稳定性更优。演进总结从“妥协”到“极致”的并发设计之路ConcurrentHashMap的设计演进本质是“锁粒度不断降低、无锁操作不断引入、性能不断优化”的过程每一步迭代都对应着并发场景的需求升级我们可以用一张表格清晰梳理各版本的核心差异对比维度JDK1.7JDK1.8JDK17底层结构Segment数组 HashEntry数组 链表Node数组 链表 红黑树同JDK1.8细节优化并发控制Segment分段锁ReentrantLockCAS无锁 桶级synchronized锁同JDK1.8JVM层面优化锁粒度Segment默认16个单个哈希桶单个哈希桶开销更低扩容机制单个Segment独立扩容无协同多线程协同扩容不阻塞读写同JDK1.8效率优化计数机制Segment汇总count弱一致baseCount CounterCells同JDK1.8伪共享优化查询复杂度O(n)仅链表O(log n)红黑树O(log n)效率优化内存开销高Segment数组额外占用内存低无Segment低细节优化核心演进逻辑JDK1.7解决“线程安全”与“全表锁性能瓶颈”的矛盾通过分段锁实现初步的并发优化是“妥协式”设计——在复杂度和性能之间找平衡JDK1.8追求“极致并发性能”通过降低锁粒度、引入CAS无锁操作、优化数据结构彻底解决JDK1.7的痛点是“革命性”优化JDK17追求“性能极致优化”在不改变核心设计的前提下通过JVM层面的优化进一步降低开销提升高并发场景下的稳定性和吞吐量。实战建议如何选择合适的版本与使用场景JDK1.7仅适用于遗留系统新系统不推荐使用——锁粒度大、内存开销高性能远不如JDK1.8JDK1.8目前最主流的选择兼顾性能、稳定性和兼容性适用于绝大多数高并发场景如缓存、会话存储、分布式锁等JDK17推荐用于高并发、大内存场景如大数据、分布式系统低延迟GC和Graal编译器的优化能显著提升性能注意事项ConcurrentHashMap不允许key或value为null与HashMap不同避免并发场景下的空指针异常size()方法为弱一致若需精确计数需额外加锁。结尾ConcurrentHashMap的设计演进是Java并发编程思想的缩影——从“粗粒度锁”到“细粒度锁”从“有锁”到“无锁”每一步都体现着“在保证线程安全的前提下最大化提升并发效率”的核心目标。理解其演进过程不仅能帮助我们更好地使用这个并发神器更能让我们领悟并发设计的精髓锁粒度越细并发度越高无锁操作越多性能越优细节优化决定极致性能。后续随着Java版本的迭代ConcurrentHashMap可能会引入更多无锁优化如原子操作的进一步优化但核心设计思想不会改变。掌握其底层原理和演进逻辑才能在高并发场景中灵活运用写出高效、安全的并发代码。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2453031.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…