OpenClaw-RUH:基于深度学习的机器人灵巧抓取框架解析与实践

news2026/5/15 20:39:01
1. 项目概述当AI遇上“机械爪”最近在AI和机器人交叉的圈子里一个名为“OpenClaw-RUH”的项目引起了我的注意。乍一看这个标题你可能会觉得它又是一个开源的机械臂控制项目。但当我深入其代码仓库和社区讨论后发现它的野心远不止于此。OpenClaw-RUH的核心是尝试用一套统一的、基于深度学习的AI模型去解决机器人末端执行器——也就是我们常说的“机械爪”——在复杂、非结构化环境中的灵巧操作问题。简单来说它想让机器手像人手一样不仅能抓取还能“感知”和“思考”如何抓取。传统的工业机械爪无论是平行夹爪还是多指灵巧手其控制逻辑大多依赖于精确的预设轨迹和刚性的力控。这在流水线上抓取固定位置、固定姿态的零件时游刃有余但一旦环境变得杂乱无章物体形状千奇百怪或者需要完成一些精细的、带接触的操作比如拧瓶盖、翻书页传统方法就捉襟见肘了。OpenClaw-RUH瞄准的正是这个痛点。它不是一个硬件项目而是一个软件框架和模型集合旨在通过视觉感知和强化学习/模仿学习赋予机械爪在未知环境中自主决策和自适应操作的能力。这个项目适合谁呢首先当然是机器人领域的研究者和工程师特别是从事机器人抓取、操作、具身智能方向的朋友。其次对于AI算法工程师尤其是专注于计算机视觉、强化学习落地应用的人来说这是一个绝佳的、有明确物理载体的实践场景。最后对于高校实验室和创客团队OpenClaw-RUH提供了一个相对完整的起点可以基于它快速搭建实验平台验证自己的算法想法而无需从零开始造轮子。接下来我将从设计思路、核心实现、实操部署到常见问题为你层层拆解这个充满潜力的项目。2. 核心设计思路与架构拆解OpenClaw-RUH的设计哲学非常清晰以视觉为眼以AI为脑实现端到端的灵巧操作策略。它摒弃了传统“感知-规划-控制”流水线中模块间大量手工设计接口和规则的做法试图用一个神经网络模型直接从原始视觉观测通常是RGB-D图像映射到机械爪的动作指令。2.1 为何选择“视觉-动作”端到端范式在机器人操作领域长期存在两种主流范式。一种是基于模型的规划与控制需要精确的物体模型、环境模型和机器人动力学模型。这种方法理论严谨但在模型不准或环境动态变化时非常脆弱。另一种是基于学习的“视觉伺服”Visual Servoing它通过视觉反馈直接计算控制误差但对特征点的提取和跟踪要求高且通常只解决“对准”问题难以处理复杂的接触力学。OpenClaw-RUH选择了更具挑战性但也更有潜力的第三条路端到端学习。其优势在于环境适应性模型直接从大量数据中学习环境和任务的隐含规律对于未见过的物体形状、摆放姿态有一定泛化能力。处理高维观测RGB-D图像包含了丰富的几何和纹理信息端到端模型可以自动学习对任务最有用的特征无需人工设计特征提取器。统一策略对于抓取、放置、推、拉、旋转等不同操作子任务理论上可以用一个统一的模型来学习简化系统架构。当然这种范式也带来了巨大挑战主要是样本效率低和训练不稳定。在真实机器人上收集数据成本极高而仿真与真实世界存在“ sim2real ”仿真到现实的鸿沟。OpenClaw-RUH的架构设计很大程度上就是在应对这些挑战。2.2 核心架构组件解析项目的架构通常包含以下几个核心部分我们可以将其理解为一个处理流水线感知模块Perception输入是来自相机通常是固定在机械臂上或工作空间上方的RGB-D相机的原始点云或图像。这里并不是一个简单的数据接收器。OpenClaw-RUH通常会集成一个轻量级的场景分割网络或目标检测网络用于从杂乱背景中分割出待操作的目标物体。这一步至关重要因为它将高维的全局观测聚焦到与任务相关的局部区域大大降低了后续策略网络的学习难度。有些实现会进一步计算目标物体的粗略位姿6D Pose作为策略网络的额外输入。策略网络Policy Network这是整个系统的“大脑”也是项目的核心创新点所在。它是一个深度神经网络输入是经过处理的感知信息如裁剪后的目标物体点云、机器人末端当前位姿输出是机械爪的动作。这个动作可以是离散动作例如抓取尝试的位姿预抓取点、抓取类型平行抓、侧抓等。连续动作更常见的是输出机器人末端执行器在接下来一个时间步内的位移增量delta x, y, z, roll, pitch, yaw以及夹爪的开合指令。策略网络的结构多样可能采用卷积神经网络CNN处理视觉输入用全连接层MLP处理状态向量最后通过一个循环神经网络RNN如LSTM或GRU来建模操作序列的时间依赖性。训练这个网络是最大的难点。训练框架与算法TrainingOpenClaw-RUH支持多种训练范式模仿学习Imitation Learning, IL通过收集人类专家演示通过遥操作设备记录的数据集让策略网络学习模仿人类的操作行为。这种方式数据效率相对较高但获取高质量演示数据本身成本不菲且模型性能上限受限于演示者的水平。强化学习Reinforcement Learning, RL让智能体在仿真或真实环境中通过试错来学习以完成任务如成功抓取为目标最大化累积奖励。这是项目最核心也最复杂的部分。它需要在仿真器中构建一个高保真的物理环境使用PyBullet、Isaac Gym等设计合理的奖励函数Reward Function并采用先进的RL算法如SAC、PPO、DDPG进行训练。仿真训练后再通过域随机化Domain Randomization等技术迁移到真实世界。离线强化学习Offline RL一种折中方案利用已有的、不一定是最优的机器人操作数据集进行训练无需在线交互。这对利用历史日志数据或第三方数据集非常有用。控制接口Control Interface策略网络输出的通常是归一化后的动作指令。控制接口负责将这些指令转换为具体机器人硬件如UR机械臂、Franka Emika Panda机械臂和夹爪如Robotiq 2F-85、OnRobot夹爪能够理解的底层控制命令如关节角度、速度或力矩。这一层需要处理不同机器人的驱动协议ROS、Modbus TCP等确保指令的实时性和安全性。2.3 工具链与依赖生态一个成熟的OpenClaw-RUH实现背后依赖着一整套强大的开源工具链仿真环境PyBullet 或 NVIDIA Isaac Gym。前者轻量、易用适合快速原型验证后者基于GPU并行能同时运行数万个环境实例极大加速RL训练。机器学习框架PyTorch 是绝对主流因其动态图特性在研究和快速迭代中更受欢迎。TensorFlow也有应用。机器人中间件ROS (Robot Operating System) 仍然是连接仿真、算法和真实硬件的“粘合剂”负责消息传递、坐标变换、设备驱动等。3D数据处理Open3D、PyntCloud 等库用于点云的预处理、可视化和简单操作。这个架构设计体现了当前机器人学习领域的前沿思路利用深度学习的强大表征能力结合强化学习的决策能力在仿真中大规模预训练再通过精心设计的技术桥接现实。接下来我们将深入策略网络这个核心看看它是如何被“调教”出来的。3. 策略网络训练从仿真到现实的跃迁策略网络的训练是OpenClaw-RUH项目中最具技术含量也最耗时的环节。这里我结合常见的实现路径拆解其中的关键步骤、技术选型背后的考量以及我踩过的一些坑。3.1 仿真环境的构建与“域随机化”在真实机器人上“裸跑”RL算法几乎是不可行的因为试错成本太高且危险。因此第一步是在仿真中构建一个高保真的训练环境。环境建模要点机器人模型需要精确导入目标机械臂和夹爪的URDF或SDF模型文件包括质量、惯性、关节限位、摩擦系数等参数。一个常见的错误是使用过于简化的碰撞模型这会导致仿真中的抓取成功但迁移到真实世界后因为微小的几何差异而失败。物体模型需要建立一个丰富多样的物体模型库。不仅要有简单的几何体方块、圆柱更要有来自YCB数据集、ShapeNet等来源的日常物体模型杯子、锤子、玩具等。物体的物理属性质量、摩擦、 restitution 要尽可能接近真实。场景随机化每次训练 episode回合开始随机化以下要素物体的初始位置和姿态散落在桌面上。物体的型号从模型库中随机选择。桌面的纹理和颜色。灯光的强度和方向。相机的外参模拟相机安装误差。甚至机器人的动力学参数如关节阻尼、驱动增益的微小扰动。注意最后一点——动力学随机化是应对 sim2real 挑战的核心技术之一。通过在仿真中变化这些参数可以迫使策略网络学习到一个对这些扰动不敏感的、更鲁棒的策略。这相当于给模型做了“数据增强”。仿真器选型PyBullet入门首选。API简单社区资源丰富在CPU上运行尚可。但当需要并行数千个环境以加速RL训练时其效率是瓶颈。NVIDIA Isaac Gym工业级选择。它允许在GPU上并行运行大量环境将状态和动作以张量Tensor形式处理与PyTorch无缝集成训练速度可比PyBullet快数百倍。但学习曲线更陡且对硬件NVIDIA GPU有要求。实操心得对于实验室或初创团队我建议从PyBullet开始快速验证想法。当算法基本成型需要大规模训练以提升性能时再考虑迁移到Isaac Gym。在PyBullet中务必使用p.GUI和p.DIRECT模式分离调试和训练后者是无头模式速度更快。3.2 奖励函数设计告诉AI什么是“好”奖励函数是RL算法的“指挥棒”设计好坏直接决定策略网络学成什么样。一个糟糕的奖励函数可能导致智能体学会一些“作弊”行为比如疯狂抖动来触发成功信号。一个用于抓取任务的奖励函数通常是稀疏奖励和稠密奖励的结合稀疏奖励只有在任务成功物体被抓起并保持一段时间或彻底失败 episode 结束时才给予一个大的正奖励或负奖励。这符合直觉但信号太稀疏学习极其困难。稠密奖励为了引导学习需要设计每一步time step都提供的、更细粒度的奖励。例如接近奖励机械爪末端距离目标物体抓取点的距离负值。距离越近奖励越大。对齐奖励机械爪 approaching vector 与物体表面法向量的对齐程度。接触奖励当夹爪开始接触物体时给予的小奖励。提升奖励物体被抓起后其离桌面高度的增加值。最终的奖励R_total可能是这些项的加权和R_total w1 * R_sparse w2 * R_distance w3 * R_alignment ...设计技巧奖励塑形Reward Shaping上述稠密奖励就是奖励塑形。关键是权重w的调整。一开始可以给“接近奖励”较高的权重让智能体先学会靠近物体。随着训练进行可以动态调整权重或使用课程学习Curriculum Learning从简单任务如抓取固定位置的大方块逐步过渡到复杂任务。归一化确保不同奖励项的量级在同一范围内如[-1, 1]避免某一项主导整个奖励信号。惩罚项引入对不安全、低效行为的惩罚如关节超限、剧烈抖动、耗时过长等。我在一个推箱子任务中曾踩过坑只给了“箱子到达目标位置”的稀疏奖励结果智能体学会了用机械臂以极快的速度“砸”箱子利用仿真器的数值误差让箱子“弹”到目标点。后来增加了对机械臂速度和平稳性的惩罚才学到合理的推动策略。3.3 RL算法选择与训练技巧OpenClaw-RUH这类连续控制问题通常属于连续动作空间的强化学习。主流算法选择有算法全称特点适用场景PPO近端策略优化稳定、易调参、兼容性广是很多研究的基线算法。入门首选适用于大多数中等复杂度的操作任务。SAC柔性演员-评论家最大熵框架探索能力强对超参数相对不敏感样本效率常优于PPO。需要更强探索能力的复杂任务或当PPO效果不佳时尝试。DDPG深度确定性策略梯度较早的深度RL算法使用确定性策略。相对简单的任务或作为基线对比。TD3双延迟深度确定性策略梯度DDPG的改进版解决了其高估问题更稳定。与SAC类似是确定性策略算法的一个好选择。训练流程中的关键点经验回放Replay Buffer必须使用足够大的回放缓冲区通常存储百万级 transition并采用随机采样来打破数据间的相关性。对于SAC、DDPG这类离线策略算法这是核心组件。探索策略在训练初期智能体需要充分探索。通常在确定性策略DDPG, TD3的输出上添加奥恩斯坦-乌伦贝克OU噪声或高斯噪声在随机策略SAC中则依靠其最大熵特性自然探索。模型保存与评估定期如每1万步保存模型快照并在一个独立的、固定的测试环境关闭随机化中评估其成功率。绘制学习曲线成功率 vs 训练步数是监控进展的必备手段。分布式训练如果使用Isaac Gym其本身支持GPU并行。如果在PyBullet中想加速可以使用Ray等框架进行多进程并行采样。避坑指南训练不收敛首先检查奖励函数看智能体是否获得了有意义的奖励信号。其次检查网络结构是否足够大以表达复杂策略但也要防止过拟合。降低学习率、增大批次大小batch size有时能增加稳定性。策略振荡智能体在两个动作间来回摇摆。这可能是学习率太高或者奖励函数中存在冲突项。尝试减小学习率或简化奖励函数。过拟合仿真策略在仿真测试中成功率很高但换一组随机种子或稍微改变物体属性就暴跌。这说明“域随机化”不够充分需要增加随机化的强度和维度。从仿真到现实策略网络学到的是一套在虚拟世界中行之有效的“行为模式”。下一步就是如何让这套模式在真实的物理世界中也能完美运行。4. 现实世界部署与系统集成将训练好的策略网络部署到真实的机器人系统上是OpenClaw-RUH项目从“研究”走向“应用”的关键一步。这个过程远不止是加载模型那么简单它涉及感知对齐、控制循环、系统延迟和安全保障等一系列工程挑战。4.1 感知对齐弥合仿真的鸿沟仿真中的视觉输入是“纯净”的而现实世界的相机图像充满噪声、光照变化和运动模糊。直接使用仿真中训练的模型处理真实图像性能必然严重下降。解决方案域随机化的延续在仿真训练阶段就尽可能多地随机化视觉外观如颜色、纹理、光照、噪声甚至使用随机背景。这能迫使模型学习更本质的几何特征而非表面的纹理特征。图像到图像翻译使用生成对抗网络GAN如CycleGAN将真实图像“翻译”成仿真风格的图像再输入策略网络。或者反过来用仿真图像训练一个特征提取器并设法让真实图像的特征分布与之对齐。使用对域变化不敏感的表示相比于RGB图像深度图Depth或点云受颜色和纹理的影响较小。因此许多OpenClaw-RUH的实现选择以点云作为主要感知输入。在仿真中可以直接从物理引擎获取精确的点云在现实中通过RGB-D相机如Intel RealSense, Azure Kinect获取。虽然真实点云存在噪声和缺失但其几何结构的相似度远高于图像像素。在线自适应在部署初期收集少量真实机器人的操作数据即使是失败的数据对策略网络的特征提取层通常是CNN进行微调Fine-tuning使其适应真实世界的视觉分布。实操步骤以点云输入为例点云获取通过ROS驱动RGB-D相机订阅/camera/depth/color/points这类话题获取sensor_msgs/PointCloud2格式的点云数据。预处理降采样使用体素网格滤波器Voxel Grid Filter降低点云密度减少计算量。去噪使用统计滤波器或半径滤波器移除离群点。裁剪根据机器人工作空间的范围裁剪掉无关区域的点云。变换将点云从相机坐标系camera_frame通过tf变换到机器人基坐标系base_frame或世界坐标系。这是至关重要的一步错误的坐标变换会导致策略网络产生完全错误的动作。格式转换将处理后的点云通常是Nx3的数组N是点数转换为策略网络输入所需的张量格式如[1, N, 3]其中1是批次大小。重要提示仿真和现实中的相机内参焦距、光心必须一致或经过标定。在仿真中渲染图像时要使用与真实相机相同的内参矩阵。坐标变换链camera_frame - base_frame的准确性需要通过手眼标定来保证。4.2 控制循环与实时性在仿真中我们可以假设感知-决策-控制是瞬间完成的。但在现实中每个环节都有延迟。典型的控制循环感知周期相机以固定频率如30Hz发布点云。点云预处理可能需要10-50毫秒。推理周期将处理好的点云送入策略网络通常已用TensorRT或ONNX Runtime优化进行前向传播得到动作。在中等性能的GPU上这个过程可能需5-20毫秒。控制周期将动作指令通过机器人驱动发送给机械臂。机械臂底层控制器如UR的CB3系列的运行频率可达125Hz或500Hz。关键挑战与应对延迟累积从“看到”到“执行”可能有100-200毫秒的总延迟。对于快速移动的物体或需要精细接触的操作这是致命的。解决方案是预测。可以使用一个简单的卡尔曼滤波器或循环网络根据物体运动历史预测其未来短暂时间内的位置策略网络基于预测状态做决策。不同步的频率感知频率30Hz可能低于控制频率125Hz。常见的做法是在两次新的感知数据到达之间机器人持续执行上一个决策周期计算出的动作或者进行简单的插值。更高级的做法是让策略网络输出一个动作序列如未来5个时间步的动作机器人按序列执行。动作滤波策略网络输出的原始动作可能包含高频抖动直接发送给机器人会导致不平稳运动。需要在输出端加入一个低通滤波器如一阶滞后滤波来平滑动作。部署架构示例基于ROS# 伪代码展示一个ROS节点内的主要逻辑 class OpenClawRealNode: def __init__(self): self.pc_sub rospy.Subscriber(“/camera/points”, PointCloud2, self.pc_callback) self.arm_client ActionClient(“/arm_controller”, FollowJointTrajectoryAction) self.model load_torch_model(“policy.pth”).eval() self.current_pc None self.latest_action None self.rate rospy.Rate(10) # 控制循环频率例如10Hz def pc_callback(self, msg): # 在回调函数中快速处理点云存入变量不进行耗时推理 self.current_pc preprocess_pointcloud(msg) def main_loop(self): while not rospy.is_shutdown(): if self.current_pc is not None: # 1. 推理 with torch.no_grad(): action self.model(self.current_pc) self.latest_action action # 2. 平滑滤波 smoothed_action low_pass_filter(self.latest_action) # 3. 转换为机器人指令并发送 trajectory action_to_trajectory(smoothed_action) self.arm_client.send_goal(trajectory) self.rate.sleep()4.3 安全与失败处理在现实世界中操作安全是第一位的。必须设计多层安全保障动作限幅对策略网络输出的动作如末端位移、速度进行硬性限幅确保其在机器人安全工作空间和速度限制内。碰撞检测除了机器人自带的关节力矩保护可以在上层应用中进行简单的几何碰撞检测如使用MoveIt!的规划场景一旦检测到即将发生的碰撞立即停止当前动作。状态监控持续监控机器人的关节状态、电流、错误码。一旦出现异常如卡住、错误标志立即进入安全停止模式。人类干预必须配备急停按钮。理想情况下应有“遥操作”模式允许人类操作员随时接管控制。失败恢复策略当一次抓取尝试失败如夹空、物体滑落策略应能自主进入一种“恢复”状态例如让机械臂退回一个安全的观察位置重新进行感知和规划而不是在原地胡乱尝试。部署环节是将算法变为生产力的临门一脚需要考虑的工程细节非常多。一个稳定的部署系统是算法能够持续运行和迭代的基础。5. 性能评估、调优与进阶方向模型部署后工作远未结束。我们需要系统地评估其性能找出瓶颈并持续迭代优化。同时OpenClaw-RUH这类项目也有许多令人兴奋的进阶发展方向。5.1 如何科学评估你的“机械爪AI”在仿真中我们可以用成功率来简单衡量。在现实中评估需要更全面的指标定量指标任务成功率在N次独立试验中成功完成任务的次数占比。这是最核心的指标。试验时应随机化物体的初始位置和姿态。完成时间从任务开始如“开始”指令发出到成功完成所花费的平均时间。这衡量了策略的效率。动作平滑度计算机械臂末端轨迹的加速度或加加速度jerk的积分。值越小表明运动越平稳对机械损耗越小也往往更安全。鲁棒性在不同光照条件、不同背景、使用同一类但不同实例的物体如不同颜色、磨损程度的同款杯子下测试成功率。泛化能力使用训练集中从未出现过的全新类别物体进行测试。这是衡量模型真正智能程度的关键。定性评估观察抓取过程是否“拟人化”、自然。面对干扰如轻微推动物体时策略能否快速调整恢复。失败案例的分析是感知错误、决策错误还是控制不稳定建立评估流水线 自动化评估能极大提升迭代效率。可以编写一个脚本自动控制机器人执行一系列预定义的测试场景通过程序摆放物体并记录每次尝试的成功与否、时间、轨迹等数据最后生成评估报告。5.2 性能瓶颈分析与调优当性能不达预期时需要系统性地排查瓶颈可能位置表现症状排查与调优方法感知模块对光照敏感对相似颜色背景的物体分割错误点云质量差。1. 检查相机标定内参、外参。2. 增强图像预处理白平衡、对比度增强。3. 尝试不同的分割网络或点云处理算法。4. 增加仿真中的视觉域随机化强度。策略网络在仿真中表现好在现实中差sim2real gap或面对新物体完全失效。1. 增加/调整域随机化参数特别是动力学随机化。2. 在仿真中使用更多样化的物体进行训练。3. 收集少量真实数据对网络进行微调在线自适应。4. 尝试更大的网络容量或更先进的网络结构如Transformer。训练算法/奖励函数训练收敛慢策略表现不稳定或学会“作弊”行为。1. 仔细设计和调试奖励函数加入更多引导性的稠密奖励。2. 尝试不同的RL算法如从PPO切换到SAC。3. 调整超参数学习率、批次大小、折扣因子等。4. 使用课程学习从易到难。控制系统与延迟机器人动作抖动、不连贯或总是“慢半拍”。1. 测量并优化整个感知-决策-控制回路的延迟。2. 在控制指令中加入平滑滤波。3. 实现动作预测以补偿感知延迟。4. 检查机器人底层控制器的配置和通信带宽。一个实用的调优循环发现现实世界性能问题 - 在仿真中复现或模拟类似问题 - 调整模型/训练参数 - 在仿真中重新训练和验证 - 部署到现实世界测试。尽可能将调试过程放在仿真中以节省宝贵的机器人机时。5.3 进阶探索方向如果你已经掌握了OpenClaw-RUH的基础玩法以下方向值得深入探索多模态感知融合除了视觉引入触觉力/力矩传感器、触觉皮肤和听觉信息。例如利用指尖的力反馈来判断抓取是否稳固实现“盲抓”或进行更精细的力控操作如捏起一张纸。语言指令驱动结合大语言模型LLM让机器人能够理解“请把红色的积木放在蓝色盒子上面”这样的自然语言指令并分解和规划出相应的抓取、移动、放置操作序列。长时序任务与分层强化学习OpenClaw-RUH目前多专注于单次抓取。对于“打开抽屉-取出工具-关上抽屉”这样的长序列任务可以引入分层强化学习HRL。上层任务规划器Manager制定子目标如“移动到抽屉前”下层操作控制器Worker即原有的抓取策略负责实现具体动作。元学习与快速适应让模型学会“如何学习”。通过元学习Meta-Learning训练使策略网络在接触到几个新物体的演示或尝试后就能快速适应并成功操作该物体实现少样本甚至零样本学习。人机协作与示教开发更便捷的人机交互接口如通过VR设备、数据手套进行遥操作示教让人类专家可以直观地“教”机器人完成复杂操作并记录为训练数据。从单一抓取到灵巧操作从已知物体到未知环境从离线训练到在线学习OpenClaw-RUH所代表的技术路径正在一步步缩小机器人与人类在物理操作能力上的差距。这个过程充满挑战但每一次成功的抓取、每一次流畅的操作都让我们离更智能、更通用的机器人助手更近一步。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2615988.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…