深度强化学习优化量子比特反馈控制:从DQN原理到实验部署

news2026/5/10 0:42:27
1. 项目概述与核心价值最近在实验室里折腾一个挺有意思的课题就是怎么用强化学习去优化量子比特的测量和反馈控制。听起来有点跨界对吧量子计算和强化学习一个在微观世界玩叠加和纠缠一个在宏观世界搞决策和优化但把它们俩凑一块儿还真能解决一些传统方法搞不定的头疼问题。简单来说这个项目要干的事儿就是让一个AI“智能体”去学习如何更聪明地“看”一个量子比特测量然后根据“看”到的结果实时地、自动地“调整”它反馈控制最终让这个量子比特能更稳定、更精确地执行我们想要的量子操作比如制备特定的量子态或者进行高保真度的量子门操作。为什么这事儿重要但凡你接触过实验量子计算尤其是超导、离子阱或者半导体量子点这类系统就知道“退相干”和“噪声”是两个绕不开的魔鬼。一个量子比特的状态脆弱得像清晨的露珠环境里一点点的热扰动、电磁波动都能让它“失忆”退相干。传统的、预先设计好的固定测量和反馈策略在面对复杂且时变的噪声时往往力不从心表现不够鲁棒。而强化学习特别是深度强化学习它的核心优势就在于“自适应”和“在线学习”。它不需要我们事先完全精确地知道系统的所有噪声模型而是通过与环境的不断交互试错自己去摸索出一套在当前具体实验条件下最优的控制策略。这相当于给量子实验装置装上了一个能自我学习、自我优化的“自动驾驶仪”。这个项目的核心价值就在于它试图打通从“感知”测量到“决策”策略再到“执行”反馈的闭环而且是自适应的闭环。它不仅仅是优化几个控制脉冲的形状更是优化整个“测量-决策-执行”的流程和节奏。这对于提升量子比特的操控保真度、延长量子相干时间、乃至最终实现可扩展、容错的量子计算都是一个非常有潜力的技术路径。无论你是做量子实验的想找新方法提升数据质量还是做量子控制的对自适应算法感兴趣或者是做机器学习的想寻找有挑战性的物理应用场景这个项目都能给你带来不少启发和可以实操的代码思路。2. 核心思路与方案选型背后的考量当我们决定用强化学习来玩转量子比特时第一个要回答的问题就是怎么把量子物理问题“翻译”成强化学习能理解的语言这决定了整个项目的框架和走向。2.1 问题建模将量子控制映射为马尔可夫决策过程强化学习的标准舞台是马尔可夫决策过程。我们需要定义好状态、动作、奖励和状态转移。状态这是智能体“看到”的世界。最直接的想法是把量子比特的密度矩阵作为状态。但密度矩阵是复数且对于纯态其信息有冗余。更实用的做法是采用测量结果。例如对于一个量子比特我们可以进行投影测量结果通常是0或1对应计算基态|0和|1。但单次测量结果太随机信息量不足。因此状态通常被定义为一段时间窗口内的测量结果序列或者是对这些结果进行统计后得到的估计量比如最近N次测量中测得|1的概率或者对量子态进行实时贝叶斯估计后得到的在布洛赫球上的坐标x, y, z期望值。在我们的方案中我选择了滑动窗口的测量结果序列作为状态表示。这样既能包含历史信息又避免了实时进行复杂量子态估计的计算负担让智能体直接从原始数据中学习模式。动作这是智能体可以“做”的事情。在量子反馈控制中动作通常对应于施加在量子比特上的控制脉冲参数。例如对于通过微波驱动超导量子比特的情况动作可以是下一个时间步施加的微波脉冲的幅度、频率或相位。为了简化问题并提高学习效率我们通常会对动作空间进行离散化。比如将微波脉冲的幅度离散为几个固定的电平如0 A/2 A将相位的调整离散为几个固定的角度偏移如0 π/2 π -π/2。我们选择了离散动作空间因为它更稳定易于探索并且很多成熟的强化学习算法如DQN对其有很好的支持。奖励这是告诉智能体“做得好不好”的信号。奖励函数的设计是项目的灵魂直接决定了智能体会学到什么。我们的目标是让量子比特稳定在目标态|ψ_target比如|1态。一个自然的奖励设计是奖励 1 - 当前估计的量子态与目标态的距离。这个距离可以用量子态保真度Fidelity的负值或者布洛赫球上矢量差的模来表示。更工程化一点我们可以设定如果当前估计的态保真度超过某个阈值如0.95则给予一个大的正奖励如果保真度下降则给予负奖励惩罚。此外为了鼓励控制效率我们还可以加入对控制脉冲幅度的轻微惩罚项以避免智能体使用不必要的大功率驱动这在实际实验中有助于减少非线性效应和发热。我们最终的奖励函数是一个结合了高保真度奖励和低功率惩罚的加权和。状态转移在模拟环境中这就是量子主方程或随机薛定谔方程的演化。我们使用量子轨迹方法来模拟包含测量和反馈的动力学过程。每一次智能体根据当前状态选择一个动作控制参数环境模拟器就根据该动作和内在的噪声模型演化量子态一次并进行一次模拟测量产生一个新的测量结果从而更新状态。这个过程天然满足马尔可夫性。2.2 算法选型为何是深度Q网络强化学习算法众多为何我们钟情于深度Q网络及其变种这基于我们对问题特点的分析状态空间可能是连续的或高维的即使我们使用离散的测量序列窗口长度N稍大状态维度就上去了。表格型的Q学习无法处理这种连续/高维状态空间。DQN利用神经网络作为函数逼近器来估计Q值完美解决了这个问题。动作空间是离散的正如前文所述我们选择了离散化的控制动作。DQN原生支持离散动作空间输出层每个神经元对应一个动作的Q值非常直观。需要从历史数据中学习量子系统的动力学可能包含复杂的时间关联性。DQN的经验回放机制可以打乱数据的时间顺序缓解数据间的相关性让学习更稳定。同时目标网络的引入减少了Q值估计的波动这对学习收敛至关重要。对样本效率有一定要求虽然是在模拟中训练但每一次模拟与环境交互都需要求解量子动力学方程计算成本比电子游戏高得多。DQN相比一些策略梯度方法如A3C通常被认为具有更好的样本效率。基于以上考虑我们选择了Double DQN作为基础算法。它是在经典DQN上的改进通过解耦动作选择和目标Q值计算有效解决了DQN普遍存在的对Q值过高估计的问题使得学习过程更稳定最终策略更可靠。这对于追求高精度控制的量子应用来说是一个重要的优势。注意算法选型不是一成不变的。如果后续问题需要更精细的连续控制如脉冲形状优化那么我们就需要转向确定性策略梯度DDPG或软演员-评论家SAC这类适用于连续动作空间的算法。但在项目初期从离散动作的Double DQN入手能更快地搭建起闭环并验证想法的可行性。3. 模拟环境构建与核心参数设计在真正训练智能体之前我们必须先打造一个高度逼真但又可控的“训练场”——量子系统模拟环境。这个环境的保真度直接决定了我们训练出的策略能否迁移到真实实验设备上。3.1 量子系统动力学模拟主方程与量子轨迹我们模拟一个最常见的量子比特——二能级系统比如一个超导传输子量子比特。它的开放系统演化由Lindblad主方程描述dρ/dt -i/ħ [H, ρ] ∑_i γ_i (L_i ρ L_i† - 1/2 {L_i† L_i, ρ})其中ρ是密度矩阵H是系统哈密顿量L_i是跳变算符γ_i是对应的耗散率。在我们的反馈控制场景中哈密顿量H H_0 H_c(t)其中H_0是静态哈密顿量例如以量子比特能级差为频率H_c(t)是时变的控制哈密顿量其参数由智能体的动作决定。耗散项主要包括弛豫T1过程L σ_-(下降算符)γ 1/T1。表示量子比特从激发态|1自发跃迁到基态|0。退相位T2过程L σ_z(泡利Z算符)γ 1/T2*。其中1/T2* 1/(2*T1) 1/T_phiT_phi是纯退相干时间。这表示量子比特的相位信息发生随机扰动。我们使用量子轨迹方法来模拟连续弱测量或离散投影测量。对于离散投影测量我们采用的方式在每个时间步Δt根据当前密度矩阵ρ计算在计算基下测得|0或|1的概率p0 0|ρ|0,p1 1|ρ|1。根据概率p0和p1随机抽样得到一个确定的测量结果m_t(0或1)。根据测量结果对量子态进行投影更新如果m_t0则ρ |00|如果m_t1则ρ |11|。但在实际模拟中为了更平滑并模拟测量不完美我们有时会采用部分投影或引入测量误差。在下一个时间步开始前量子态会根据控制哈密顿量和耗散项演化Δt时间。3.2 关键环境参数与设计选择为了让模拟环境既真实又可学习我们精心设定了以下参数这些参数也构成了后续训练和测试的基线参数符号设定值设定依据与说明量子比特频率ω_q/2π5.0 GHz典型超导量子比特频率范围。控制脉冲最大幅度Ω_max/2π10 MHz保证能驱动拉比振荡但不过强导致非理想效应。时间步长Δt10 ns远小于典型的相干时间~μs量级能分辨动力学细节也接近真实实验控制系统的时钟周期。弛豫时间T130 μs当前中等水平超导量子比特的典型值。退相位时间T2*20 μs略短于2*T1表示存在纯退相位噪声。测量时间T_meas100 ns模拟一次投影测量所需的时间期间控制暂停。测量保真度F_meas0.95模拟非理想测量有5%的概率得到错误的结果。状态窗口长度N10状态定义为最近10个时间步的测量结果序列。平衡信息量与状态维度。目标量子态ψ_target1环境交互流程设计每个回合开始时随机初始化量子比特到一个混合态例如ρ 0.5*I增加学习任务的挑战性。每个时间步环境将当前状态最近N次测量结果提供给智能体。智能体输出动作索引环境将其解码为具体的控制参数如微波幅度和相位偏移。环境执行以下操作 a. 施加控制脉冲H_c持续Δt时间。 b. 根据主方程包含弛豫和退相位演化量子态Δt时间。 c. 进行模拟测量按F_meas保真度可能出错得到结果m_t。 d. 更新量子态根据测量结果进行投影或部分投影。 e. 根据更新后的量子态计算与目标态|1的保真度并据此计算奖励。 f. 将新的状态更新后的测量序列、奖励和“是否结束”标志返回给智能体。一个回合通常持续固定步数如200步即2μs或者当保真度持续高于阈值一段时间后提前结束。实操心得在构建模拟环境时测量模型的逼真度至关重要。早期版本我使用了理想投影智能体学得很快但策略过于依赖“完美测量”迁移到带噪声的真实系统必然失败。加入测量保真度F_meas和测量时间T_meas后智能体学到的策略明显更鲁棒它会学会通过多次测量结果来“滤波”噪声而不是盲目信任单次结果。这提醒我们模拟环境的“脏”程度决定了策略的“健壮”程度。4. Double DQN智能体的实现与训练细节有了环境接下来就是打造智能体本身。我们基于PyTorch框架实现Double DQN。4.1 神经网络结构与输入输出处理我们的Q网络是一个相对简单的多层感知机因为输入状态是离散的0/1序列结构并不需要像处理图像那样复杂。状态输入 (维度 N) - 全连接层 (128神经元, ReLU) - 全连接层 (128神经元, ReLU) - 全连接层 (64神经元, ReLU) - 输出层 (维度 动作数)输入处理状态是长度为N10的二进制序列。我们直接将其转换为一个长度为10的浮点数向量作为输入。输出处理输出层有num_actions个神经元每个对应一个离散动作的Q值状态-动作价值估计。我们的动作空间设计为控制脉冲幅度有3个等级0 0.5*Ω_max Ω_max相位调整有4个选项0 π/2 π -π/2。理论上组合起来是12个动作但“幅度为0”时相位调整无意义故实际有效动作为3*4 - 3 9个幅度为0时合并为1个“无操作”动作。探索策略采用经典的ε-贪婪策略。训练初期ε很高如0.9鼓励充分探索随着训练进行ε线性衰减到一个很小的值如0.05让智能体逐渐利用学到的知识。4.2 核心训练循环与超参数调优训练循环是强化学习的引擎超参数则是引擎的调校旋钮。训练循环关键步骤初始化经验回放缓冲区容量设为10000。在每个回合的每一步 a. 智能体根据当前状态和ε-贪婪策略选择动作。 b. 环境执行动作返回下一个状态、奖励、结束标志。 c. 将转换(s, a, r, s, done)存入经验回放缓冲区。 d. 每隔一定步数如4步从缓冲区随机采样一个小批量batch_size64数据。 e.Double DQN核心更新 * 用在线网络选择下一个状态s下最大Q值对应的动作a argmax_a Q_online(s, a)。 * 用目标网络计算s状态下动作a的Q值Q_target(s, a)。 * 计算目标Q值y r γ * Q_target(s, a) * (1 - done)其中γ是折扣因子通常0.99。 * 计算在线网络对(s, a)的预测Q值Q_online(s, a)。 * 计算均方误差损失L (y - Q_online(s, a))^2。 * 反向传播更新在线网络参数。 f. 每隔一定回合数如每100步将在线网络的参数软更新或硬更新到目标网络。经过多次调优后的关键超参数超参数值调优说明学习率1e-4对于Adam优化器这个值在稳定性和收敛速度间取得了较好平衡。太高易震荡太低收敛慢。折扣因子 γ0.99量子反馈控制需要一定前瞻性较高的γ让智能体更关注长期累积奖励。经验回放缓冲区大小10000足够存储大量多样化的经验避免过早遗忘早期经验。小批量大小64兼顾训练稳定性和计算效率。32可能噪声大128可能更新慢。目标网络更新频率每100训练步硬更新硬更新比软更新更稳定。100步的间隔让目标Q值有足够时间变化但又不会滞后太多。ε-贪婪衰减从0.9线性衰减到0.05 共50000步给予充分的探索时间让智能体在探索和利用间平滑过渡。踩坑记录初期我使用了较大的学习率1e-3和软更新τ0.01结果训练曲线剧烈震荡无法收敛。原因是Q值估计本身在初期就不准目标网络频繁跟随在线网络变化导致“移动的目标”问题被放大。将学习率降低一个数量级并改用硬更新但频率降低后训练稳定性大幅提升。另一个坑是奖励函数的尺度。最初奖励范围在[-1,1]导致Q值绝对值很小梯度也小学习缓慢。将成功保持高保真度的奖励从1提高到10失败惩罚从-1提高到-5后学习动力明显增强智能体更快地学会了避免失败区域。5. 训练结果分析与策略解读经过数万回合的训练我们可以通过分析学习曲线和观察智能体的行为来评估其学习成果。5.1 学习曲线与性能评估我们主要监控两个指标每个回合的总奖励和回合结束时量子态的保真度。奖励曲线训练初期奖励在低位剧烈波动说明智能体在随机探索经常得到负奖励保真度低。大约在5000回合后平均奖励开始呈现明显的上升趋势波动减小。在20000回合左右平均奖励趋于稳定在一个较高的正值区间。这表明智能体已经学会了一种能持续获得正奖励的策略。保真度曲线与奖励曲线对应。初期结束保真度平均值在0.5随机水平附近。随着训练进行结束保真度的平均值和最小值都显著提升。稳定后智能体在超过85%的回合中能在规定步数内将量子态制备并稳定在目标态|1且保真度高于0.92。考虑到模拟中包含了T1/T2噪声和测量误差这个性能是相当不错的。为了定量评估我们将训练好的策略在100个独立的测试回合使用新的随机种子中运行与两种基线策略对比“Bang-Bang”控制简单粗暴的策略。只要估计的|1态概率低于阈值如0.8就施加最大幅度、相位固定的驱动脉冲否则就停止驱动。这是一种经典的反应式控制。固定幅度连续驱动始终施加一个固定幅度如0.5*Ω_max的共振驱动期望通过连续驱动来对抗退相干。策略平均最终保真度保真度0.9的比例平均控制功率相对值强化学习策略0.9488%0.65Bang-Bang控制0.8245%0.70固定连续驱动0.7120%1.00结果显示强化学习策略在保真度指标上显著优于两种基线方法同时平均控制功率也较低说明其策略更智能、更高效。5.2 学到的策略行为分析仅仅看数字不够我们还需要“打开黑箱”看看智能体到底学会了什么。通过可视化智能体在典型回合中的行为我们发现了一些有趣的模式主动探索与确认在初始状态不确定时智能体倾向于施加一系列小幅度的、不同相位的驱动脉冲并观察测量结果。这很像是在主动进行“探测”以快速估计当前量子态的大致位置布洛赫球上的区域。反馈节奏自适应与传统固定频率的反馈不同智能体学会了非均匀的反馈节奏。当量子态远离目标时它采取更频繁、幅度更大的控制动作当量子态接近目标时它减少控制干预仅进行细微的“微调”甚至在某些时刻选择“等待和观察”以节省控制能量并避免过冲。这体现了对“测量反作用”和“控制扰动”的平衡理解。噪声滤波面对95%保真度的测量智能体没有对单次测量结果做出过激反应。其动作决策更多地依赖于状态窗口最近10次测量的整体模式。例如即使连续出现两次与预期相反的测量结果只要窗口内多数结果支持当前估计它就不会大幅改变控制策略表现出一定的“惯性”或“滤波”能力。相位补偿智能体明确学会了利用相位控制。当它估计量子态在布洛赫球赤道附近叠加态时会施加具有特定相位的脉冲将态矢量“推”向目标极点而不是简单地用最大幅度驱动。深度洞察智能体学到的本质上是一个隐含的、自适应的状态估计器滤波器和一个非线性的反馈控制律的融合体。它没有显式地进行卡尔曼滤波或贝叶斯估计而是通过神经网络直接从带有噪声的测量历史中提取出了对当前量子态足够好的“特征表示”并基于此做出控制决策。这种“端到端”的学习方式省去了复杂且可能不准确的显式建模步骤是其强大适应性的来源。6. 迁移到真实实验的挑战、方案与避坑指南模拟中表现优异只是万里长征第一步。将训练好的策略部署到真实的量子实验平台是项目成败的关键也是挑战最大的环节。6.1 主要挑战与应对思路模拟与现实间的差距挑战模拟环境的噪声模型如简单的马尔可夫噪声远不如真实设备复杂可能有1/f噪声、串扰、控制线畸变等。模拟的测量模型也可能过于理想。应对采用系统辨识与域随机化相结合的方法。首先对真实设备进行初步表征获取更准确的T1, T2*测量保真度、测量死时间、控制脉冲响应函数等参数更新模拟环境。其次在训练时关键环境参数如T1, T2, 测量误差率不要固定而是在一个合理的范围内随机采样*。这样训练出的策略面对参数在一定范围内波动的真实系统会更具鲁棒性。延迟问题挑战真实系统中从测量信号读出、数据处理、到生成并施加新的控制脉冲存在不可忽略的延迟从几十纳秒到微秒量级。这破坏了强化学习所依赖的马尔可夫性当前动作影响的是未来的状态。应对在状态表示中显式地加入时间戳或延迟补偿。例如状态不仅包含最近的测量结果还包含这些结果对应的“年龄”距离当前的时间。更高级的做法是在智能体网络之前加入一个循环神经网络层如LSTM或GRU让它自己学习对延迟和历史依赖的建模。另一种工程思路是采用“动作-价值”网络直接学习一个将测量序列映射到一序列未来控制动作的策略提前规划以补偿延迟。样本效率与在线学习安全挑战在真实设备上收集数据成本极高时间、设备占用。完全从头在线学习不现实。且在线探索时糟糕的策略可能将量子比特驱动到不期望的状态甚至损坏设备。应对坚持模拟到现实的范式。先在高度随机化的模拟环境中进行充分训练。然后将训练好的策略固定部署到真实设备进行纯利用ε设为0或极小值。同时在真实设备上运行一个影子模式即让策略给出控制建议但暂时不执行而是与当前实验人员使用的策略结果进行对比评估其安全性和性能。只有经过充分验证后才进行闭环控制。可以进一步收集真实设备上的数据对模拟环境进行微调然后在新环境下微调策略形成迭代优化。6.2 部署流程与实操步骤环境校准与数据收集在目标量子设备上运行标准表征实验Rabi振荡、T1、T2*、测量标定等获取用于构建高保真模拟环境的基础数据。高保真模拟器训练利用校准后的参数构建模拟环境并加入域随机化。使用此环境对预训练的智能体进行微调而不是从头训练以加速收敛。策略验证与“开环测试” a. 将训练好的策略网络导出为ONNX或TorchScript格式集成到实验控制软件如基于Python的QCoDeS或自定义LabVIEW程序中。 b. 在真实设备上运行“开环测试”让量子比特处于已知的初始态运行策略一个回合但不执行策略给出的控制动作而是记录下策略建议的所有动作序列。同时用设备默认的、已知性能的基准策略如简单的π脉冲执行控制并记录最终保真度。对比两者建议的动作序列分析差异。影子模式运行在开环测试安全的前提下进入影子模式。让策略实时接收测量数据并给出控制建议同时实验控制系统也运行一个安全的基线控制器。在一段时间内只执行基线控制器的动作但记录下策略建议的动作。事后分析如果策略建议在大部分情况下与基线控制器一致且在分歧点策略的建议从物理上看是合理的则增加其可信度。小范围闭环试点选择非关键性的实验时段或辅助量子比特进行真正的闭环控制。设置严格的安全中断条件例如如果连续多个时间步估计的保真度低于某个危险阈值或建议的控制脉冲幅度超过安全限值则立即中断实验切换回安全的手动模式。从小数据量开始逐步积累信心。性能评估与迭代对比强化学习策略与原有最佳方案在相同任务如态制备、随机基准测试下的表现。如果性能提升显著则可以考虑扩大应用范围。同时将闭环实验中收集到的数据用于进一步优化模拟环境和策略形成正向循环。终极避坑指南安全永远是第一位的。在将任何学习到的策略部署到昂贵的量子硬件之前必须进行彻底的离线测试和影子模式验证。一个实用的技巧是在模拟环境中加入一个“灾难性状态”检测和惩罚。训练智能体时如果它把量子态驱动到某个极端不希望的区域比如通过过强的驱动导致泄漏到更高的能级在模拟中用简单的模型近似就给予极大的负奖励并结束回合。这能让智能体在模拟阶段就学会规避高风险操作。另外在真实控制代码中一定要在策略网络输出和执行器之间加入一层“安全过滤器”对脉冲幅度、带宽等进行硬性限幅这是防止意外硬件损坏的最后一道防线。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2599076.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…