智元 D1 强化学习sim-to-real系列 | 从训练诊断到 Jetson Orin 实机部署(八)

news2026/4/27 14:00:24
在上篇中我们已经完成了从策略接入、Lowlevel 控制链打通到实机首轮部署与部署侧微调的全部关键步骤。到了这里机器狗已经不再只是“能连上、能跑起来”而是开始暴露出更真实的问题速度跟踪是否稳定、原地站立是否干净、过台阶时是否容易打滑、离开桌面级显卡之后又能否真正走向嵌入式平台。因此下篇要解决的就不再是“怎么把策略接上去”而是另外两个更接近落地的问题第一当实机表现不理想时如何通过训练日志判断接下来应该改哪里第二当策略训练完成之后如何把它从桌面环境迁移到 Jetson Orin 这样的嵌入式设备上形成真正可移动的实机部署方案。如果说上篇解决的是“链路是否成立”那么下篇关注的就是“策略是否足够好以及系统是否真正具备离开实验台的能力”。5. 训练参数调整从“能跑”到“跑得更像样”当部署端的小范围参数已经调过一轮之后如果机器人的表现依旧不够理想那么下一步就不应该继续在真机端反复试错而是应该重新回到训练侧结合 TensorBoard 日志去判断当前策略到底是没有学会还是学得还不够好到底应该改 reward、改命令分布还是改环境本身。这一步的核心不是“盲调”而是先学会读图。5.1 先学会看 TensorBoard在IsaacLab文件夹下运行下面的命令./isaaclab.sh-p-mtensorboard.main--logdirlogs随后根据终端输出访问http://localhost:6006/就可以打开 TensorBoard 页面。左侧可以选择不同的训练记录右侧的SCALARS可以对曲线进行平滑帮助我们从大量迭代数据中看到真正的趋势而不是被局部波动带偏判断。接下来我们按照几个最关键的分组逐项分析这组训练结果。5.1.1 Curriculum课程学习是否正常推进先看Curriculum/terrain_levels。这条曲线呈现出“先下降、后上升”的趋势整体是合理的。它说明训练初期环境给出的地形难度偏高策略还不足以稳定通过于是课程学习机制主动把难度下调而在模型逐渐具备基础通过能力之后系统又开始稳步提升地形等级。这类曲线的意义在于课程学习确实在发挥作用而不是始终把机器人困在某一个固定难度里。如果一条课程曲线从头到尾都没有明显变化往往意味着课程策略本身没有生效或者当前奖励设计无法推动策略跨过难度门槛。5.1.2 Episode_Reward奖励项到底在鼓励什么、惩罚什么这一组里可以先抓几个最有代表性的项来看action_rate_l2依然偏高说明动作变化较快控制不够平滑ang_vel_xy_l2在逐步改善说明横滚与俯仰方向的扰动正在被抑制contact_forces整体比较稳定说明接触冲击没有出现明显恶化feet_air_time波动较大意味着步态节奏还不够稳定抬腿与落脚时序仍在调整。从这一页可以大致判断策略已经开始学会“走”但走得还不够稳、不够顺。再往后看feet_height说明抬脚高度整体在优化feet_height_body没有形成很稳定的趋势说明脚相对机身的高度控制还没有完全收敛feet_slide一直存在说明策略仍有打滑问题feet_stumble偶尔出现说明还有绊脚现象但暂时不是最主要矛盾joint_acc_l2偏大说明关节加速度较高动作风格略“猛”joint_mirror表现较好说明左右对称性总体正常。这部分通常对应的是“步态品质”问题。机器人可能已经具备通过能力但离“干净”“轻盈”“自然”还有距离。继续点Next看后续记录这一页里joint_pos_limits说明策略偶尔会逼近关节极限但尚未成为主问题joint_pos_penalty仍然较大说明关节姿态经常偏离理想参考位joint_power持续下降这是一个正向信号说明整体能耗在改善joint_torques_l2偏高说明虽然能耗下降了但力矩使用仍不够克制lin_vel_z_l2在下降说明竖直方向抖动在减小stand_still波动依然明显说明零命令下的静止质量一般。最后一页里track_ang_vel_z_exp说明角速度跟踪在变好但还不算特别稳track_lin_vel_xy_exp提升更明显说明速度跟踪能力确实在持续增强undesired_contacts依然存在说明还有错误接触upward长期稳定说明机器人总体可以保持直立姿态。这一组奖励项的核心作用不只是看“奖励总和涨没涨”而是拆开看策略到底是在哪些能力上在变强又在哪些地方还留有明显短板。5.1.3 Episode Termination机器人是怎么“结束”的终止原因通常非常重要因为它直接告诉我们训练失败主要发生在哪种情形。这组图里只有两项比较突出time_out占大多数说明绝大部分 episode 都能正常跑满terrain_out_of_bounds很低说明机器人基本没有大面积跑飞或冲出场景边界。这个结果说明当前策略至少已经没有严重失控问题。也就是说它现在面临的更像是“品质优化”问题而不是“根本不会走”。5.1.4 Loss损失曲线在告诉我们什么entropy持续下降说明探索在减少策略逐渐进入收敛阶段surrogate整体比较平稳没有明显发散迹象value大体稳定但会出现偶发尖峰这通常意味着在课程升级或分布变化时价值网络会短时失配learning_rate正常衰减没有异常。其中最值得注意的是value的尖峰。它不一定代表训练失败但通常意味着环境难度、命令分布或奖励结构发生变化时价值函数需要重新适应。如果尖峰只是偶发并且之后能回落一般属于正常现象如果频繁出现且越来越高就需要警惕训练不稳定。5.1.5 Metrics真实误差是否在下降error_vel_xy在下降但仍偏大说明直线速度跟踪还没有完全学稳error_vel_yaw依旧偏高说明转向控制明显弱于前进控制。这类图表的好处在于它给出的不是“代理信号”而是更直观的真实误差。如果奖励涨了但误差始终不降那么就需要怀疑 reward 设计有没有偏离真正任务目标。5.1.6 Perf训练效率是否正常collection_time稳定说明采样侧没有明显瓶颈learning_time平稳说明网络规模与当前硬件较为匹配total_fps维持在较高水平说明整体训练效率正常。性能曲线的意义在于确认当前问题到底来自算法还是来自系统。如果训练质量差但性能曲线稳定那么就应优先从环境与奖励侧排查如果性能本身剧烈波动则需要先检查仿真、数据采样或硬件资源分配。5.1.7 Policy策略还有多“随机”mean_std仍有波动说明策略虽然在收敛但还没有完全定型。这类图在中后期尤其有用如果它始终维持在很高水平说明策略还在强探索阶段如果下降过快则可能意味着探索不足、过早收敛。5.1.8 Train总体训练效果mean_episode_length长期接近跑满说明训练过程中没有频繁崩掉mean_reward持续上升说明策略整体在进步mean_reward/time也同步上升说明训练效率和策略质量都在改进。到这里我们就可以形成一个比较清晰的结论这组策略不是“没学会”而是已经具备基本能力但还需要在稳定性、停稳能力、转向精度和足端行为上继续优化。5.2 根据日志回头改训练配置读完 TensorBoard 之后真正有价值的事情是把这些判断重新落回配置文件而不是停留在“看懂了曲线”。5.2.1 增加更有针对性的地形样本self.scene.terrain.terrain_generator.sub_terrains[pyramid_stairs].proportion0.25self.scene.terrain.terrain_generator.sub_terrains[pyramid_stairs].step_height_range(0.13,0.15)self.scene.terrain.terrain_generator.sub_terrains[pyramid_stairs_inv].proportion0.15这里额外提高了pyramid_stairs和pyramid_stairs_inv的占比并把台阶高度限制到 0.130.15m。这样做的目的是让训练数据里更频繁地出现“可上下、可跨越、但又不是特别极端”的台阶样本。对 D1 这种需要兼顾稳定性与通过性的任务来说这类样本往往比随机生成的大杂烩地形更有价值。5.2.2 收紧动作裁剪范围self.actions.joint_pos.clip{.*:(-3.0,3.0)}这里把joint_pos.clip从原先非常宽的(-100, 100)收紧到(-3, 3)。原因很简单仿真里允许一个几乎不受约束的动作空间并不代表真实机器人也应该承担这种输出。在训练阶段就适当收窄动作边界有助于减少过激动作让落脚更干净也能让后续部署更接近真实可执行范围。5.2.3 重新分配机身稳定性偏好self.rewards.lin_vel_z_l2.weight-1.0self.rewards.ang_vel_xy_l2.weight-0.16self.rewards.base_height_l2.weight-0.8self.rewards.base_height_l2.params[target_height]0.40这里实际上是在重写“机身稳定”的定义。lin_vel_z_l2的惩罚减弱表示允许机器人在上下方向保留一定弹性ang_vel_xy_l2的惩罚增强表示更强调机身别乱滚、别大幅俯仰base_height_l2从关闭改为启用并把目标高度固定在 0.40m表示希望机身在跨障时不要明显塌腰。这套修改背后的思路是上台阶时真正重要的不是“身体一点都不动”而是“身体总体稳、姿态别乱同时腿还能有足够动作空间”。5.2.4 单独强化“停住不动”的能力self.rewards.stand_still.weight-1.7self.rewards.stand_still.params[command_threshold]0.06self.rewards.track_lin_vel_xy_exp.weight2.8self.rewards.track_ang_vel_z_exp.weight1.6self.rewards.zero_cmd_lin_vel_xy_l2RewTerm(funcmdp.zero_cmd_lin_vel_xy_l2,weight-0.8,params{command_name:base_velocity,command_threshold:0.06},)self.rewards.zero_cmd_ang_vel_z_l2RewTerm(funcmdp.zero_cmd_ang_vel_z_l2,weight-0.45,params{command_name:base_velocity,command_threshold:0.06},)原版里“站住”主要依赖stand_still一个项。现在除了把它的触发阈值收紧到 0.06 之外又额外加入了零命令下的线速度和角速度惩罚项。这样做的目的是把“站住不动”从一个模糊目标变成更明确的约束零命令下不要小碎步零命令下不要原地轻微扭动零命令下机体速度应该真正贴近零。对于真实机器人而言这一类 reward 经常非常重要。因为实机体验里最容易暴露问题的不一定是高速奔跑而恰恰是“你明明没给命令它却还在轻微晃动”。5.2.5 用自适应足端离地替代固定抬腿高度self.rewards.adaptive_feet_clearance_worldRewTerm(funcmdp.AdaptiveFeetClearanceReward,weight-0.6,params{command_name:base_velocity,asset_cfg:SceneEntityCfg(robot,body_namesself.foot_link_name),sensor_cfg:SceneEntityCfg(contact_forces,body_namesself.foot_link_name),frame:world,base_height:0.09,gain:0.048,tau:0.20,tanh_mult:2.0,stumble_ratio:3.2,command_threshold:0.06,},)self.rewards.adaptive_feet_clearance_bodyRewTerm(funcmdp.AdaptiveFeetClearanceReward,weight-2.0,params{command_name:base_velocity,asset_cfg:SceneEntityCfg(robot,body_namesself.foot_link_name),sensor_cfg:SceneEntityCfg(contact_forces,body_namesself.foot_link_name),frame:body,base_height:-0.14,gain:0.018,tau:0.20,tanh_mult:2.0,stumble_ratio:3.2,command_threshold:0.06,},)这部分修改非常关键。原先更像是在要求机器人始终按一个固定高度抬脚而现在改成了基于运动命令与接触状态的自适应离地控制。它的好处是脚不再是“死板地抬到某个高度”而是会根据当前步态与地形需求动态调整。换句话说策略不再只是在“重复一个标准步态”而是在尝试学会什么时候该高抬腿什么时候该更贴地什么时候为了避免绊碰需要给脚更多余量。这对台阶地形尤其重要因为固定抬腿高度往往很难同时兼顾平地效率和障碍通过性。5.2.6 重写命令分布让训练目标更贴近任务本身self.commands.base_velocity.heading_commandFalseself.commands.base_velocity.rel_heading_envs0.0self.commands.base_velocity.rel_standing_envs0.15self.commands.base_velocity.ranges.lin_vel_x(-1.5,1.5)self.commands.base_velocity.ranges.lin_vel_y(-0.8,0.8)self.commands.base_velocity.ranges.ang_vel_z(-2.0,2.0)这里的改动本质上是在明确当前训练任务不是“追踪绝对朝向”而是更直接地追踪三类速度命令前后速度lin_vel_x左右速度lin_vel_y转向角速度ang_vel_z同时把rel_standing_envs提升到 0.15表示有 15% 的环境专门练习零命令站立。这会让策略在“会走”和“能停”之间取得更好的平衡而不是一味向运动能力倾斜。5.3 增量式训练结果不是完美但方向已经变对这一版rough_env_cfg.py的目标非常明确让模型学到一种更适合台阶与粗糙地形的步态具体体现在机身更稳零命令时更容易停住足端离地高度更合理打滑和误碰撞更少对线速度与角速度命令的跟踪更直接。从最后一轮训练结果来看track_ang_vel_z_exp和track_lin_vel_xy_exp的提升都比较明显说明速度命令跟踪确实增强了upward长期稳定也说明机身直立性总体不错没有出现频繁摔倒。不过问题也并没有完全解决。例如feet_slide和feet_stumble依然提示存在打滑与绊碰另外stand_still虽然整体趋于稳定但实际数值表现反而有所下降。这通常意味着策略开始更偏向速度方向的执行能力代价是原地静止时可能仍会出现一定晃动。这其实是强化学习里很典型的权衡当某些能力被强化之后另一些能力往往会暂时让位。真正的优化过程不是一次训练解决全部问题而是一轮一轮地把策略推向更符合真实需求的方向。6. Jetson Orin 嵌入式部署让策略离开工作站如果始终使用桌面级显卡进行推理那么策略虽然已经能在实验环境里运行但它依旧很难真正走向移动场景。一方面这种部署方式天然受限于场地与供电另一方面它也无法对应未来更真实的工程应用形态。因此在完成工作站上的训练与验证之后下一步就是把策略迁移到Jetson Orin这样的嵌入式平台上验证整套系统是否具备更高的自主性与可移动性。6.1 Jetson Orin 环境配置首先需要给 Orin 安装系统。这里使用 NVIDIA 官方提供的SDK Manager来完成 Jetson 系列设备的软件管理与系统烧录https://developer.nvidia.com/sdk-manager安装完成后可以在命令行中直接启动sdkmanager如果需要选择历史版本可以使用sdkmanager --archived-versions首次使用时需要登录 NVIDIA 账号国内用户也可以通过微信完成注册与登录。在给 Orin 上电之前需要先短接FC REC和GND让设备进入 Recovery 模式随后再使用一根 USB 3.0 线连接 Orin 的 Type-C 接口与电脑。进入 SDK Manager 之后选择目标设备为Jetson Orin NX再根据后续推理环境所需的 CUDA、cuDNN 和 TensorRT 版本选择合适的 JetPack/SDK 版本。安装组件时有两点尤其需要注意不要勾选更新本机驱动否则容易影响当前主机环境Runtime 和 SDK 都要安装不要只装 Runtime。否则后面如果要进行 CUDA/TensorRT 开发往往会遇到一系列环境缺失问题。整个烧录过程中如果遇到安装失败或者设备无法连接一个很常见的原因是电脑同时连接了多个以太网设备而 Orin 在烧录阶段会把 USB 通道转换成以太网进行数据传输。此时可以优先关闭本机其他以太网只保留与 Orin 对应的那一路连接。系统安装完成后需要将 Orin 的有线网口设置为固定 IP并放在192.168.168.1/24网段中。本文的部署示例中使用的地址是192.168.168.1696.2 D1 有线连接方式配置接下来需要把 D1 切换到有线调试方式。虽然这一部分在前文已经提过但在嵌入式部署场景下它是必须重新确认的一步。首先打开 D1 尾部的有线调试口取下方形盖板螺丝孔上的硅胶塞用 2mm 内六角拧下固定螺丝就可以看到拓展调试接口。随后使用网线将 D1 调试口与 Orin 的网口直接连接。由于 D1 的调试口本身没有 DHCP 服务器因此 Orin 端必须手动设置为同一网段。D1 调试口默认地址为192.168.168.168/24本文示例中Orin 侧配置为192.168.168.169/24接着通过 SSH 登录 D1sshfirefly192.168.168.168# 密码为 firefly然后修改 SDK 配置文件把目标 IP 从本地回环地址改为 Orin 地址sudovim/opt/export/config/sdk_config.yaml将其中的target_ip从127.0.0.1改成192.168.168.169接下来继续修改sudovim/opt/app_launch/start_motion_control.sh在文件里找到exportSDK_CLIENT_IP192.168.168.168这里的地址是 D1 自身的 IP。如果后续机器 IP 发生变化这一项也必须同步修改。然后再编辑 systemd 启动文件sudovim/etc/systemd/system/robot-launch.service在EnvironmentROBOT_LOG_DIR/userdata/log后面增加一行EnvironmentROBOT_NET_INTERFACESeth0这一项的作用是显式告诉系统机器人运控应该绑定哪一个网卡接口。否则在有线调试场景下很容易出现运控程序绑定失败最终表现成 SDK 侧无法正常通信。需要特别提醒的是当配置为有线调试之后D1 开机时运控程序不会像无线模式那样立即正常启动而是要求有线调试端口处于载波在线状态。也就是说调试口必须真的连到另一端网口上否则运控可能拉不起来。因此这一模式更适合固定部署而不适合频繁断开测试。配置完成后重启机器就可以让 Orin 作为 D1 的嵌入式上位机进行控制了。6.3 硬件连接方式在硬件上Orin 的供电范围大约是 519V因此可以直接从机身上的 12V 供电口引出一路电源通过 XT30 等方式给 Orin 供电网络侧则通过一根网线与 D1 调试口相连。理论上D1 本身是有机械背负接口的可以进一步设计专用安装支架。不过如果手头暂时没有对应结构件也可以先采用临时固定方案验证整体链路。本文示例里就是直接把 Orin 固定在机身上进行测试。7. 实机运行让策略真正离开实验台到了这一步整套系统已经不再依赖桌面主机而是由 Orin 直接承担推理与控制任务。这意味着 Sim2Real 终于不再只是“实验室里的远程控制演示”而开始接近一种更完整的机载部署形态。这里还需要补一个工程细节由于 D1 本身不能直接把手柄输入上传给 Orin因此在实机测试中我们额外修改了rl_sar中的rl_real_d1.py让 Orin 外接一个手柄并由 Orin 读取手柄输入再把这些输入转换成强化学习策略所需的速度命令与转向命令。这样一来整条链路就变成了外接手柄 → Orin 读取输入 → 生成速度命令 → 策略推理 → Lowlevel 控制下发 → D1 执行动作从系统结构上看这一步非常重要。因为它意味着控制输入、策略推理和命令下发已经汇聚在同一台嵌入式设备上不再需要额外依赖一台桌面工作站作为中介。也正因为如此后续无论是增加本地视觉感知、加入状态估计模块还是扩展更复杂的机载算法系统结构都会更自然。从测试结果来看这套部署方式已经能够完成基础的强化学习控制闭环说明策略不仅在仿真中成立也不仅在桌面主机连接实机的方式下成立而是开始具备真正迁移到嵌入式平台上的可行性。当然这并不意味着工作已经结束。恰恰相反当策略真的被放到机器人背上之后新的问题才会变得更加具体嵌入式推理延迟是否足够稳定手柄输入链路是否会引入额外抖动机载供电、散热与固定方式是否影响长期运行当后续再接入视觉或其他传感器时带宽和算力是否还能支撑。这些问题都不是训练曲线本身能回答的而必须在真实部署中一项项被验证。8. 结语Sim2Real 不是“跑起来”而是“跑得住、带得走、用得上”回过头看Sim2Real 真正困难的地方从来都不只是“把一个.pt模型接到机器人上”。更难的是在这个过程中逐步把一套原本只存在于训练环境里的策略打磨成一个能够承受真实噪声、真实硬件误差、真实控制频率约束的系统。上篇里我们解决了控制链路与部署侧问题而在下篇里我们进一步完成了三件更接近落地的事情学会通过 TensorBoard 判断策略到底差在哪里学会把这些判断重新落回训练配置本身学会把策略从桌面主机迁移到 Jetson Orin 这样的嵌入式设备上。这三步连在一起才算是把“训练—部署—优化—再部署”的闭环真正走通。从这个意义上说Sim2Real 的结束并不是某一次实验成功走完了几米路而是你已经拥有了一套可以持续迭代、持续诊断、持续迁移的完整方法。而这往往才是机器人强化学习真正开始变得有工程价值的时刻。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2544175.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…