GLIGEN图像空间控制:用边界框实现像素级精准生成

news2026/5/15 4:35:56
1. GLIGEN不是又一个“AI画图玩具”而是图像生成控制权的真正移交你有没有试过对着 Stable Diffusion 的提示词框反复修改半小时就为了把一只猫准确地放在沙发左边、让咖啡杯稳稳立在桌面上、让窗外的梧桐树只出现在画面右上角——结果生成的图里猫蹲在窗台上杯子飘在半空树干从人物胸口长出来这根本不是你的问题是整个扩散模型时代的“接地困境”Grounding Problem文字描述和像素位置之间隔着一道看不见摸不着的语义鸿沟。GLIGEN 就是专门来填平这道沟的。它不是换了个更花哨的界面也不是堆砌更多参数的黑箱而是一套可插拔、可复用、可解释的视觉锚定框架。核心关键词就三个边界框Bounding Box、视觉提示Visual Prompting、开源兼容性Open-Source Agnostic。它解决的不是“能不能画出来”而是“能不能按我画的草图、标的位置、框的范围一比一还原出来”。适合谁不是只看热闹的围观群众而是正在用 AI 做真实设计交付的平面设计师、游戏原画师、电商主图策划、建筑可视化从业者以及所有被“随机性”折磨到想砸显卡的 Stable Diffusion 深度用户。它不承诺“一键出片”但能保证你画下的每一个矩形、标注的每一个关键点都在最终图像里有明确的像素级对应。这不是魔法是把控制权从模型的隐空间交还到你的手绘板上。2. 核心设计思路为什么 GLIGEN 不是“加个框”的简单功能2.1 传统文本引导的致命缺陷从“说不清”到“画不准”我们先拆解一下问题根源。Stable Diffusion 这类模型本质是在一个巨大的、高维的“潜空间”Latent Space里做数学运算。你输入的文本提示词会被 CLIP 文本编码器转换成一个向量这个向量像一根“牵引绳”在潜空间里拉拽噪声图让它逐步收敛成符合描述的图像。但问题来了这根绳子只告诉你“往‘猫’的方向走”却完全没说“猫的左耳该在画面第327行、第512列”。文本本身不具备空间坐标信息。就像你告诉一个没去过北京的朋友“去天安门广场”他能理解“天安门”和“广场”的概念但绝不可能凭这句话精确画出人民英雄纪念碑在广场中轴线偏东12米、距离旗杆基座83步的位置。这就是“接地失败”。现有方案如 ControlNet虽然引入了边缘图、深度图等条件但它要求你提前准备好一张结构完整的参考图相当于“先画好一张草图再让AI照着描”。这在需要高度原创、快速迭代的场景下效率极低——你得先花时间画草图再调参再生成再修图。GLIGEN 的破局点恰恰在于它把“草图”这件事压缩到了最原始、最轻量的形态一个矩形框或者几个关键点。2.2 GLIGEN 的三层架构如何让“框”真正说话GLIGEN 的精妙之处在于它没有试图去改造底层的扩散模型比如重训 UNet而是像给模型装上了一副“空间眼镜”。它的核心是一个轻量级的Grounding Token Injector接地令牌注入器工作流程分三步空间令牌生成Spatial Token Generation当你在画布上拖出一个框比如框住未来要放“红色苹果”的区域GLIGEN 并不会把这个框像素化后塞进模型。相反它会根据框的坐标x_min, y_min, x_max, y_max、宽高比、以及你附加的文本描述如“a shiny red apple”动态生成一组特殊的、带有空间坐标的“令牌”Tokens。这些令牌不是普通单词而是携带了(x, y, width, height)四元组信息的向量。你可以把它想象成给模型的潜空间里悄悄埋下几颗带GPS坐标的“路标”。跨模态对齐Cross-Modal Alignment这是最关键的一步。GLIGEN 在训练时强制让这些新生成的“空间令牌”与文本编码器输出的“语义令牌”比如“apple”对应的向量在潜空间里靠得足够近。同时它还让这些空间令牌与图像编码器如 VAE 的 encoder提取出的、对应区域的视觉特征向量也保持强关联。这就建立了一个三角关系文本描述↔空间坐标↔局部视觉特征。模型学到的不再是“苹果圆形红色”而是“当我在坐标(0.2, 0.3, 0.4, 0.5)处看到‘苹果’这个词时这个区域就必须生成符合‘苹果’语义的像素”。无侵入式注入Non-Intrusive Injection最后这些精心构造的空间令牌并不是粗暴地替换掉原有文本令牌而是以一种“注意力掩码”Attention Mask的方式被注入到 UNet 的交叉注意力层Cross-Attention Layer中。具体来说它会修改注意力权重的计算公式让模型在关注某个空间区域时“听到”文本描述的声音更大在关注某个文本概念时“看到”其指定位置的信号更强。整个过程对原始模型权重零修改所以才能做到“即插即用”。提示这解释了为什么 GLIGEN 能兼容几乎所有开源模型。它不碰模型的“心脏”UNet 参数只在“听觉神经”注意力机制上加了一个外接的助听器。你换一台收音机模型只要接口标准都是基于 SD 的交叉注意力这个助听器就能直接用。2.3 与 ControlNet 的本质区别轻量、精准、可组合很多人第一反应是“这不就是 ControlNet 吗” 答案是否定的。ControlNet 是一个“全图约束”系统它要求你提供一张完整的、结构化的引导图Canny 边缘、OpenPose 姿势、Depth 深度图。这带来了两个硬伤一是准备成本高画一张精准的线稿可能比生成图还费时间二是灵活性差一旦你只想调整图中一个物体的位置就得重画整张引导图。GLIGEN 则是“局部锚定”系统。你只需要框出你想控制的物体甚至可以只标出几个关键点比如人脸的双眼、鼻尖其他区域完全由模型自由发挥。更厉害的是它可以和 ControlNet并行使用。你可以用 ControlNet 控制整体构图和姿势再用 GLIGEN 精确钉死某件配饰的颜色和位置。这种“宏观微观”的组合拳才是专业工作流的终极形态。3. 实操全流程从零开始亲手实现一个“苹果在盘子里”的精准生成3.1 环境准备与依赖安装避开最常见的坑别急着打开 WebUI先确保你的基础环境干净可靠。我实测下来最容易翻车的环节就在第一步。以下是我验证过的、最稳妥的配置路径基于 Ubuntu 22.04 RTX 4090# 1. 创建独立的 Conda 环境避免与系统 Python 冲突 conda create -n gligen_env python3.10 conda activate gligen_env # 2. 安装 PyTorch务必匹配你的 CUDA 版本 # 查看 CUDA 版本nvcc --version # 我的环境是 CUDA 12.1所以选择 pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 # 3. 安装核心依赖注意版本 pip install diffusers0.21.0 transformers4.35.0 accelerate0.24.0 safetensors0.4.2 # 4. 安装 GLIGEN 官方库不要用 pip install gligen那个是旧版 git clone https://github.com/GLIGEN/GLIGEN.git cd GLIGEN pip install -e .注意diffusers0.21.0这个版本是关键。新版 diffusers 对 GLIGEN 的注入逻辑做了改动会导致“框无效”。如果你用的是 Automatic1111 的 WebUI必须手动将extensions/sd-webui-controlnet/目录下的controlnet.py文件备份然后用 GLIGEN 仓库里的webui_extension.py替换它。否则WebUI 会把 GLIGEN 当作一个普通的 ControlNet 模块加载失去其核心的空间令牌注入能力。3.2 模型选择与加载不是所有模型都“开箱即用”GLIGEN 官方提供了两个预训练好的“接地头”Grounding Headgligen_checkpoint_sdxl.safetensors用于 SDXL和gligen_checkpoint_sd15.safetensors用于 SD 1.5。但模型本体你需要自己准备。这里有个重要经验SDXL 模型对 GLIGEN 的支持远优于 SD 1.5。原因在于 SDXL 的潜空间维度更高能承载更丰富的空间信息。我对比测试了 5 个主流 SDXL 模型Juggernaut, RealVisXL, DreamShaper XL发现 Juggernaut XL v9 在物体定位精度上最稳定误差通常在 5 像素以内而 RealVisXL 在处理复杂遮挡比如一只手拿着杯子时手部和杯子的相对位置更自然。SD 1.5 模型则普遍表现平庸尤其在小物体如戒指、纽扣定位上容易出现“漂移”。所以我的建议是起步就用 SDXL Juggernaut XL。模型文件下载后放在models/Stable-diffusion/目录下即可。3.3 WebUI 配置与界面操作手把手教你画第一个框假设你已成功安装了 Automatic1111 WebUI 和 GLIGEN 插件。启动后进入txt2img标签页你会在下方看到一个全新的GLIGEN区域。操作流程如下设置基础参数在Prompt框中输入a photorealistic image of a wooden dining table, with a white ceramic plate in the center, and a shiny red apple on the plate。Negative prompt保持默认或加入deformed, blurry, bad anatomy。Sampling method选DPM 2M KarrasSampling steps设为 30CFG scale设为 7。这些是通用安全值后续可微调。绘制边界框点击GLIGEN区域右上角的Enable开关。此时画布上方会出现一个工具栏。选择Draw Bounding Box工具图标是一个虚线矩形。在画布上按住鼠标左键拖动画出一个覆盖未来“苹果”位置的矩形。重点来了这个框的大小不是你希望苹果最终显示的大小而是你希望它“被放置”的区域大小。比如你想让苹果占画面宽度的 15%那么框的宽度就设为画布宽度的 15%。我通常会先用CtrlC复制一张纯白背景图粘贴到画布上用标尺工具View - Show Rulers辅助定位确保框的中心点在画布正中央。绑定文本描述画完框后框的右上角会出现一个号。点击它弹出一个小窗口。在Textual Description输入框里只写a shiny red apple。切记这里只写与这个框严格对应的、最精炼的描述。不要写“on the plate”因为“plate”是另一个框要管的事。每个框只负责一个原子概念。添加第二个框盘子重复步骤 2-3。这次画一个稍大的框覆盖“盘子”的预期位置。在绑定描述时只写a white ceramic plate。此时画布上会有两个不同颜色的框默认蓝色和绿色代表两个独立的锚定点。生成与微调点击Generate。第一次生成可能不够完美。如果苹果跑出了盘子说明两个框的相对位置没对齐。这时不要改提示词而是回到画布用鼠标拖动“苹果”框让它完全落在“盘子”框的内部。GLIGEN 会自动学习这种包含关系。我试过只需微调框的位置 2-3 次生成结果就能达到商用级别。3.4 高级技巧点提示Point Guidance与多模态组合边界框只是 GLIGEN 的入门玩法。它的“点提示”功能才是真正体现其工程智慧的地方。比如你想生成一张肖像画要求“人物直视镜头微笑戴一副金丝边眼镜”。用框很难精准控制眼镜的位置。这时就用点提示在画布上用Draw Point工具图标是一个小圆点在人物左眼瞳孔中心、右眼瞳孔中心、鼻尖、嘴角两端各点一个点。然后为每个点绑定描述左眼点绑定left eye pupil右眼点绑定right eye pupil鼻尖点绑定nose tip嘴角点绑定smiling mouth corner。GLIGEN 会将这些点视为“刚性锚点”强制模型在这些精确坐标上生成符合描述的局部特征。实测下来点提示对五官对称性和表情一致性提升巨大比任何面部 ControlNet 都更可控。更强大的是组合技。你可以这样构建一个工业级工作流用OpenPoseControlNet 控制人物全身姿态用DepthControlNet 控制场景透视和景深用GLIGEN的点提示钉死人物佩戴的工牌上的公司 Logo 和员工编号用GLIGEN的框提示框出工牌在衣服上的精确位置和大小。这四层约束叠加生成的图像几乎不需要后期 PS直接可用于企业宣传册。4. 常见问题排查与避坑指南那些没人告诉你的“血泪教训”4.1 “框画了但没用”最常遇到的失效问题这是新手 90% 会踩的坑。现象是无论你怎么画框、怎么绑定文本生成的图和没开 GLIGEN 一模一样。排查顺序如下问题层级检查项解决方案环境层diffusers版本是否为0.21.0pip show diffusers如果不是pip install diffusers0.21.0 --force-reinstall插件层WebUI 的 GLIGEN 插件是否正确加载查看 WebUI 启动日志搜索GLIGEN确认有Loaded GLIGEN extension字样。如果没有检查extensions/sd-webui-gligen/目录是否存在且webui_extension.py文件是否为最新版。模型层使用的模型是否为 SDXLSD 1.5 模型需额外加载gligen_checkpoint_sd15.safetensors在 WebUI 的Settings-Stable Diffusion-Checkpoint中确认模型名含sdxl。在GLIGEN区域确认Model下拉菜单选择了正确的 checkpoint。操作层绑定的文本描述是否过于冗长或包含无关信息删除所有修饰词只保留最核心的名词短语。例如把a beautiful, juicy, shiny red apple简化为red apple。实操心得我曾经花了整整一天调试这个问题最后发现是accelerate库版本太高0.26.0降级到0.24.0后立刻解决。所以永远相信官方文档里写的版本号不要盲目追求“最新”。4.2 “物体变形/扭曲”空间约束过强的副作用当你用 GLIGEN 强制将一个复杂物体如一只展开的手塞进一个很小的框里时模型可能会为了满足空间约束而牺牲物体的自然形态导致手指扭曲、手掌拉长。这不是 bug是扩散模型在多重约束下的妥协。解决方案有两个放宽框的尺寸把框画得比你预期的物体略大 10%-15%。模型有“呼吸空间”就能在约束范围内做出更自然的变形。比如你想放一个咖啡杯框的大小可以设定为“杯身高度的 1.2 倍”而不是“杯口直径”。降低 CFG Scale将CFG scale从默认的 7 降到 5 或 6。较低的 CFG 值意味着模型更愿意“听取”空间约束的指令但对文本提示的执着度降低从而减少了为满足文字描述而强行扭曲形状的倾向。这是一个需要平衡的艺术我的经验是对于简单物体苹果、杯子CFG7对于复杂物体人手、折叠的纸鹤CFG5.5。4.3 “多物体遮挡关系错乱”如何让“手在苹果前面”这是 GLIGEN 的前沿挑战。默认情况下GLIGEN 只保证每个框内的内容符合描述但不保证框与框之间的前后关系。所以你可能得到“苹果在手上手在苹果上”的诡异结果。官方尚未提供原生的 Z-axis深度轴控制但我们可以通过一个巧妙的“分层生成法”绕过第一层背景关闭 GLIGEN用纯文本提示生成一张只有桌子、盘子、背景的图。保存为bg.png。第二层前景物体开启 GLIGEN只画“苹果”的框绑定red apple并设置Prompt为a red apple, isolated on transparent background。生成后用inpaint功能用bg.png作为蒙版只在苹果框内生成其余区域保持透明。第三层合成用 Photoshop 或 GIMP将第二层的 PNG带 Alpha 通道叠加到第一层的bg.png上。由于 PNG 是透明背景苹果会自然地“浮”在盘子上。这个方法虽然多了一步但效果绝对可控。我用它为客户制作电商主图一周内交付了 200 张不同水果在不同容器中的精准合成图零返工。4.4 性能瓶颈与显存优化让老显卡也能跑起来GLIGEN 的注入机制会增加约 15% 的显存占用。对于 12GB 显存的 3090生成 1024x1024 图像时显存占用会飙升到 11.2GB非常危险。我的优化方案是分辨率策略永远用512x512或768x768生成然后用 ESRGAN 模型超分到目标尺寸。实测下来512x512 GLIGEN 的效果比1024x1024无 GLIGEN 的效果更好且速度快 2.3 倍。批处理禁用Batch count必须设为1。GLIGEN 在批处理模式下空间令牌的注入逻辑会失效。VAE 精简在Settings-Stable Diffusion-VAE中选择sdxl_vae_fp16.safetensorsFP16 版本比默认的 FP32 版本节省 1.8GB 显存。5. 从工具到工作流GLIGEN 如何重塑你的 AI 创作日常5.1 设计师的“数字草图板”告别反复返工以前我给客户做海报设计流程是沟通需求 → 手绘草图 → 客户确认 → 用 AI 生成初稿 → 发现主体位置不对 → 修改提示词 → 再生成 → 还是不对 → 最后只能用 PS 手动抠图、移动、缩放。整个过程平均耗时 3-4 小时。现在我把 GLIGEN 当作我的“数字草图板”。第一步直接在 WebUI 画布上用不同颜色的框标出客户要求的“品牌 Logo左上角 10% 区域”、“主视觉图中央 60% 区域”、“Slogan 文字底部 15% 区域”。每个框都绑定最简描述。一次生成90% 的图稿位置就已达标。剩下的 10%只是微调字体、颜色、阴影。整个流程压缩到 45 分钟以内。客户看到的不再是“可能差不多”的初稿而是“位置已锁定”的准成品。信任感和效率是肉眼可见的提升。5.2 游戏开发者的“资产定位器”批量生成一致的角色部件在做一款像素风 RPG 游戏时我们需要为上百个 NPC 生成统一风格的头像。要求是所有头像必须是正面眼睛在画面水平中线嘴巴在中线下方 1/3 处头顶留白 20%下巴留白 15%。用传统方法每张图都要手动调参极其痛苦。GLIGEN 的点提示完美解决了这个问题。我创建了一个模板在画布上固定标出 5 个点——头顶中心、左眼中心、右眼中心、鼻尖、下巴尖。然后为每个点绑定描述top of head,left eye,right eye,nose tip,chin tip。接着写一个简单的 Python 脚本遍历所有角色的文本描述a brave knight with silver armor,a wise old wizard with long beard自动调用 GLIGEN API 生成。脚本运行 22 分钟127 张头像全部生成完毕所有五官位置误差小于 3 像素。这在过去是需要外包给画师、耗时两周的工作。5.3 电商运营的“主图流水线”千图千面精准控场电商最头疼的是主图同质化。平台算法喜欢“差异化”但人工设计成本太高。我们的解决方案是用 GLIGEN 构建一个“主图生成流水线”。核心是三个动态框产品框固定在画面中央大小为 600x600 像素适配手机端首屏绑定产品名称。场景框覆盖画面 70% 的背景区域绑定场景关键词cozy living room,modern office desk,sunlit garden。促销框一个 200x80 像素的小框放在右上角绑定促销文案50% OFF,Free Shipping。每天早上运营同事只需在 Excel 表格里更新当天的 20 款产品名称、10 个场景关键词、5 条促销文案运行一个脚本30 分钟后200 张风格统一、位置精准、文案各异的主图就生成好了直接上传到后台。这套流程上线后我们店铺的主图点击率提升了 37%因为每一张图都精准地把用户的注意力引向了我们想让他们看的地方。个人体会GLIGEN 最大的价值不在于它能生成多惊艳的图片而在于它把 AI 从一个“不可预测的灵感伙伴”变成了一个“绝对服从的执行工具”。它消除了创作中最消耗心力的“试错成本”。当你不再需要为一个苹果的位置反复生成 20 次你省下的时间就可以用来思考更重要的事这个苹果应该传达什么样的品牌情绪它的光泽应该暗示产品的什么特质技术终于退到了幕后而创意真正走到了台前。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2607126.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…