扩散模型与潜在空间:AI图像生成的原理与自动化造梦实践

news2026/5/1 14:25:36
1. 项目概述当AI学会“做梦”一个开源项目的诞生最近在GitHub上闲逛发现了一个挺有意思的项目叫“auto-dream”。光看名字Cat-tj这位开发者就挺会起名的让人联想到“自动做梦”。这可不是什么玄学或者心理学实验而是一个实实在在的、利用AI技术进行图像生成与风格迁移的开源工具。简单来说它能让AI模型根据你的输入比如一段文字、一张图片或者一个初始的“梦境”种子自动生成一系列充满想象力、风格独特的视觉图像这个过程被开发者诗意地称为“做梦”。这个项目吸引我的地方在于它不是一个简单的“输入文字输出图片”的生成器。从它的架构和代码逻辑来看它更侧重于“过程”和“演化”。它模拟了一个“梦境”的生成、扩散、变异和融合的过程。你可以把它想象成一个拥有无限画布和无穷想象力的数字艺术家但它作画的方式不是一笔一划而是从一个模糊的念头开始让图像在AI的“潜意识”里不断迭代、生长最终呈现出你意想不到的形态。这背后涉及的核心技术主要是扩散模型Diffusion Models和潜在空间Latent Space的探索与操控。对于谁适合玩这个项目呢我觉得有三类人第一类是AI艺术爱好者和数字创作者你可以用它来寻找灵感生成独一无二的背景、纹理或概念图第二类是对生成式AI技术感兴趣的开发者你可以通过这个项目深入理解扩散模型的工作原理、潜空间插值、提示词工程等实操细节第三类是喜欢折腾新工具的极客它的开源属性和相对清晰的代码结构让你可以很方便地魔改创造出属于自己的“造梦机”。2. 核心原理拆解扩散模型如何“编织梦境”要理解“auto-dream”是怎么工作的我们得先搞懂它依赖的基石——扩散模型。这几年从DALL-E 2到Stable Diffusion扩散模型彻底改变了图像生成领域。它的核心思想非常巧妙学习如何从一团“噪声”中一步步“去噪”最终还原出一张清晰的图片。2.1 扩散与去噪AI的“雕刻”过程想象一下你有一块完美的大理石雕像清晰的图片。扩散过程就是不断地朝这块雕像上泼洒石膏粉添加高斯噪声直到它完全变成一个形状不规则的石块纯噪声。这个过程是前向的、确定的。而模型要学习的是逆向过程给你一个乱七八糟的石块噪声如何预测出下一步该凿掉哪里的石膏粉预测噪声最终一步步还原出雕像的本来面目清晰图像。在“auto-dream”中这个去噪过程被用来“显化”一个由文本提示词prompt或初始图像所定义的“梦境”。注意这里的关键在于“条件引导”。单纯的去噪只会得到一个随机的清晰图像。我们需要用文本编码器如CLIP将你的文字描述如“一座漂浮在星空中的机械城堡”转换成模型能理解的“条件向量”。在去噪的每一步模型都会参考这个条件向量确保最终生成的图像内容符合你的描述。这就是“文生图”的基本原理。2.2 潜在空间梦境的“高维舞台”然而直接在数百万像素的图片空间里进行扩散计算成本高得吓人。因此像Stable Diffusion这样的模型引入了一个关键概念潜在空间Latent Space。你可以把它想象成一个高度压缩、但信息密度极高的“梦境空间”。一张高清图片通过一个编码器VAE的Encoder被压缩成一个尺寸小得多例如64x64的潜在表示Latent Representation。所有的扩散和去噪过程都在这个潜在空间中进行。最后再用解码器VAE的Decoder将这个处理好的潜在表示“解压”回我们肉眼可见的像素图像。“auto-dream”项目的许多魔法就发生在这个潜在空间里。比如潜空间行走Latent Walking在两个不同的潜在向量代表两种概念或风格之间进行线性插值可以生成平滑过渡的图像序列仿佛一个概念逐渐“梦”成了另一个概念。噪声初始化与种子梦境的起点初始噪声不同即使使用相同的提示词最终生成的图像也会天差地别。“auto-dream”可以通过控制随机种子来复现或探索不同的梦境分支。迭代反馈项目可能支持将上一轮生成的图像或其潜在表示作为下一轮生成的输入从而实现梦境的连续演进和叙事而不是生成单张静态图片。2.3 “自动”的含义提示词调度与参数演化“auto-dream”中的“auto”自动体现在哪里我认为不仅仅是点一下按钮就出图。更高级的玩法在于动态提示词和生成参数的自动化调度。例如一个梦境可能不是由单一的提示词定义的而是由一系列提示词按时间或迭代步骤组成的“剧本”。比如前50步的提示词是“一片宁静的湖泊”50到100步逐渐变成“湖泊开始沸腾”100到150步变成“从沸腾的湖水中升起水晶结构”。模型在去噪的不同阶段会受到不同提示词的引导从而在单次生成过程中实现内容的动态演变。这就像是导演在AI的“梦境”中按照分镜脚本进行指导。此外生成过程中的关键参数如引导尺度Classifier-Free Guidance Scale, CFG Scale、去噪步数Steps甚至模型本身的采样器如Euler, DPM 2M Karras都可以被设计成随着迭代而变化。高CFG尺度会让AI更严格地服从提示词但可能降低图像多样性低CFG则让AI更有“自由发挥”的空间。在梦境的不同阶段动态调整这些参数可以控制梦境是光怪陆离还是清晰具体。3. 环境搭建与实战部署手把手启动你的造梦引擎理论说得再多不如亲手跑起来看看。下面我将基于常见的Stable Diffusion WebUIAutomatic1111生态来模拟实现一个“auto-dream”的核心功能。请注意原项目可能有自己的代码框架但原理相通且WebUI环境用户基数大更适合教学和复现。3.1 基础环境准备首先你需要一个能够运行Stable Diffusion的环境。最推荐的方式是使用Automatic1111的WebUI它集成了大量插件和脚本功能强大。安装Python与Git确保系统已安装Python 3.10和Git。克隆WebUI仓库git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui安装依赖与启动Windows用户直接运行webui-user.bat。脚本会自动创建虚拟环境并安装依赖。Linux/macOS用户运行./webui.sh。首次运行会下载必要的模型文件如v1-5-pruned.ckpt请保持网络通畅。下载模型将你喜欢的Stable Diffusion模型.ckpt或.safetensors格式放入stable-diffusion-webui/models/Stable-diffusion/目录。基础模型如SD 1.5或更强大的SDXL模型都可以。启动成功后在浏览器中打开http://127.0.0.1:7860就能看到WebUI界面了。3.2 实现“自动做梦”的关键脚本与扩展Automatic1111 WebUI本身已经内置或可以通过扩展实现类似“auto-dream”的功能。1. 使用内置的“脚本”功能WebUI的“Script”下拉菜单里有两个强大的工具Prompt matrix可以让你用不同的分隔符如|在同一批提示词中组合多个变量一次性生成所有组合的结果用于探索提示词的影响。X/Y/Z plot这是实现“参数自动化”探索的神器。你可以选择多个参数如CFG Scale、Sampler、Seed等并为每个参数设定一系列值WebUI会生成一个网格图直观展示不同参数组合下的输出结果。这本身就是一种初级的“梦境参数空间”探索。2. 安装关键扩展一些扩展能极大增强自动化梦境生成的能力。Dynamic Prompts这个扩展支持“通配符”和“语法”。你可以创建一个wildcards文件夹里面放有colors.txt红色|蓝色|绿色...、styles.txt油画风格|水彩风格|赛博朋克风格...等文件。然后在提示词中写A beautiful __colors__ castle in __styles__ style它就会自动组合所有可能批量生成。这为梦境的“自动变异”提供了素材库。Deforum或AnimatedDiff如果你想做时序上的动态梦境即视频这两个扩展是必装的。它们允许你定义关键帧的提示词、参数CFG、步数等并在帧与帧之间进行插值生成一段图像演变的视频。这完美契合了“梦境演化”的概念。3.3 核心工作流配置示例假设我们要生成一个“森林逐渐机械化的梦境”。启用Deforum扩展安装后在WebUI顶部标签页切换到“Deforum”。设置关键帧提示词在“Prompts”标签页你会看到一个表格可以设置帧数和对应的提示词。第0帧A lush, vibrant magical forest, sunlight filtering through leaves, detailed, fantasy art第60帧The forest trees are half organic, half metallic, with gears visible under the bark, steampunk第120帧A fully mechanical forest, all trees are intricate clockwork machines, glowing energy cores, futuristic设置动画参数“Motion”标签页设置zoom、rotation等让镜头有缓慢的推进和旋转增强梦境感。例如zoom从1.0到1.2。“Coherence”标签页调整color_coherence和diffusion_cadence确保帧与帧之间过渡自然而不是完全跳变。设置生成参数基础模型选择适合奇幻/科幻风格的Checkpoint。CFG Scale可以设置为7。如果想在梦境中段让AI更自由可以使用Deforum的“参数调度”功能让CFG在中间帧降低到5再升回7。Sampling Steps30-50步使用DPM 2M Karras等快速且质量不错的采样器。分辨率设置为512x768竖屏以获得更广阔的森林视野。生成与后期点击生成等待一段时间后你会得到一个视频文件。视频中森林会从生机勃勃的魔法之地逐渐过渡到齿轮咬合的机械奇观。你还可以用视频编辑软件为其配上氛围音乐增强沉浸感。实操心得Deforum的参数非常多初次尝试很容易得到闪烁剧烈、不连贯的视频。关键技巧在于保持较低的“强度”。无论是运动参数zoom, rotation的变化幅度还是提示词之间的差异初期都应该设置得小一些。diffusion_cadence参数设置为1每帧都重新去噪最稳定但速度慢设置为2或3复用上一帧结果更快但可能产生累积误差导致画面漂移。需要多次尝试找到平衡点。4. 高级技巧与参数深潜让梦境更可控、更惊艳掌握了基础工作流后我们可以深入一些高级技巧这些技巧往往决定了你的“梦境”是平庸之作还是惊艳之作。4.1 提示词工程梦境的“语法”与“权重”提示词是引导AI做梦的“咒语”。写好它需要一点语法。基础结构通常格式为[主题描述], [风格描述], [质量修饰词], [负面提示词]。例如A mechanical owl perched on a neon-lit branch, cyberpunk style, intricate details, studio lighting, masterpiece, best quality负面提示词通用模板ugly, blurry, low resolution, deformed, extra limbs, poorly drawn face强调与削弱使用括号()和[]来调整关键词的权重。(keyword:1.3)表示将该词权重提升至1.3倍[keyword:0.7]表示削弱至0.7倍。在动态梦境中你可以调度权重让某个概念逐渐凸显或淡出。交替语法在Dynamic Prompts扩展中[dog|cat]表示随机选择狗或猫。{2$$cat|dog|bird}表示从这三个词中随机选两个。这可以用于在梦境序列中引入随机但可控的元素变化。4.2 潜空间操作直接“编辑”梦境有时我们不想从头生成而是想对现有图像或梦境中间态进行定向修改。这需要直接操作潜在表示。图像到潜变量Img2Img / InpaintingWebUI的Img2Img功能本质上就是将一个图像编码到潜空间并在此基础上加入少量噪声然后用新的提示词去引导去噪。去噪强度Denoising strength是这个过程的阀门。强度为0输出就是原图强度为1就几乎等同于用新提示词从头生成文生图。通过设置一个中间值如0.4-0.7你可以在保留原图大体结构和布局的基础上注入新的概念。这就是“编辑梦境”。潜空间插值如果你想看到概念A平滑地变成概念B就需要获取代表A和B的两个潜向量Z_a和Z_b然后计算中间向量 Z (1 - t) * Z_a t * Z_b其中t从0变化到1。有些高级脚本或扩展如“Latent Couple”支持这种操作。你可以先分别用“纯机械”和“纯森林”的提示词生成两张图使用相同的种子和参数以确保潜空间对齐性然后对它们的潜表示进行插值就能得到完美的渐变序列。4.3 模型融合与LoRA注入专属梦境风格单一的基座模型风格有限。通过模型融合或使用LoRA你可以创造出独一无二的“造梦风格”。模型融合在WebUI的“Checkpoint Merger”页面你可以将两个模型按比例合并。例如将70%的写实模型和30%的动漫模型合并你可能会得到一个能生成“写实渲染风格动漫角色”的新模型。这相当于创造了新的梦境“基底”。LoRALow-Rank Adaptation这是一种轻量化的模型微调技术。一个只有几十MB的LoRA文件就能为基座模型注入特定的人物、画风或概念。在生成时只需在提示词中触发对应的LoRA标签如lora:cyberpunk_style:1就能让梦境带上强烈的赛博朋克风。LoRA的可组合性极强可以同时加载多个实现风格的混合。4.4 控制网络为梦境加上“骨架”有时候天马行空的梦境也需要一点约束比如你希望生成的机械城堡必须符合你手绘的草图轮廓。这时就需要ControlNet。ControlNet是一种能够额外接受空间条件如边缘图、深度图、人体姿态图作为输入并严格控制生成图像符合该条件的模型。在“auto-dream”的语境下ControlNet可以固定构图用Canny边缘检测提取草图的线稿确保生成的梦境物体位置和形状不跑偏。保持结构用深度图控制场景的前后景深关系让梦境有正确的立体感。引导姿态用人体姿态图确保梦中的人物动作符合你的设定。在动态梦境中你可以为每一帧或每隔几帧提供不同的ControlNet条件图例如一个逐渐变化的线稿序列从而实现对梦境演变动画的强控制。这就像为AI的想象力搭建了一个舞台框架它在框架内自由发挥但最终呈现的舞台剧结构由你决定。5. 性能优化与常见问题排雷玩转“auto-dream”这类项目尤其是在生成高分辨率图像或长序列视频时对硬件和技巧都是考验。下面分享一些优化经验和常见坑位。5.1 硬件与性能调优显存VRAM是瓶颈生成一张512x512的图大概需要4-6GB显存。分辨率翻倍1024x1024显存占用可能接近翻倍。使用SDXL模型需求更高。解决方案启用--medvram或--lowvram参数在WebUI的启动命令中添加这些参数可以优化显存使用但可能会降低速度。使用TensorRT或xFormersxFormers库通常已自动安装它能显著加速注意力计算并节省显存。对于NVIDIA显卡可以探索TensorRT加速它能将模型编译优化大幅提升推理速度。分块渲染Tiled Diffusion对于超高分辨率出图如4K可以使用Tiled Diffusion/VAE扩展将图像分割成小块分别渲染再拼接突破显存限制。生成速度采样步数Steps是影响速度的主要因素。50步和30步的质量差异可能并不明显但时间差了一倍。多尝试不同的采样器Euler a速度快但可能不稳定DPM 2M Karras在20-30步就能达到很好效果是速度和质量的不错平衡。5.2 常见问题与解决方案速查表问题现象可能原因解决方案生成的图像模糊、缺乏细节1. 采样步数不足。2. 提示词不够具体。3. 使用了过于“平滑”的采样器。1. 适当增加Steps到30-50。2. 添加细节描述词如intricate details,sharp focus,8k。3. 尝试DPM 2M Karras, DDIM等采样器。图像出现扭曲、多肢体、怪脸1. 模型在训练数据中见过类似错误。2. 分辨率设置不当尤其是人像。3. 负面提示词不够强。1. 这是扩散模型通病多生成几次选好的。2. 生成人像时宽高比尽量接近训练数据如512x768。3. 强化负面提示词deformed, mutated, ugly, disfigured, extra limbs, bad anatomy。图像完全不符合提示词1. CFG Scale过低。2. 提示词有歧义或冲突。3. 模型本身不理解该概念。1. 提高CFG Scale到7-12。2. 简化提示词移除可能冲突的描述。3. 尝试更换模型或使用LoRA注入特定概念。Deforum视频闪烁严重1. 关键帧之间提示词/参数变化太大。2.diffusion_cadence设置过高。3. 缺少颜色一致性约束。1. 减小提示词变化的跨度增加过渡帧。2. 将diffusion_cadence设为1最稳定。3. 在Deforum设置中启用color_coherence并调整其强度。出图速度极慢1. 使用了高步数、慢采样器。2. 未启用xFormers。3. 正在使用CPU进行计算。1. 降低步数换用快速采样器。2. 检查启动日志确认xFormers已加载。3. 确认WebUI使用的是GPUCUDA。内存不足OOM错误1. 分辨率设置过高。2. 同时加载了多个大型模型或LoRA。3. 批处理数量Batch size太大。1. 降低出图分辨率或使用Tiled Diffusion。2. 及时卸载不用的模型Send to CPU。3. 将Batch size/size设为1。5.3 工作流自动化与脚本编写当你需要批量生成一系列探索性的梦境时手动点击WebUI就不现实了。这时需要用到WebUI的API功能。启用API在启动WebUI的命令中加入--api参数。调用API你可以使用Python脚本向http://127.0.0.1:7860/sdapi/v1/txt2img发送POST请求其JSON载荷包含了所有生成参数prompt, steps, cfg_scale, seed等。批量生成写一个循环依次改变种子、提示词或CFG值然后调用API并将返回的图片保存下来。这样就能实现无人值守的、大规模的“梦境”参数空间探索。import requests import json import io from PIL import Image url http://127.0.0.1:7860 prompt_list [dreamy landscape, surreal cityscape] seed_list [123, 456, 789] for i, prompt in enumerate(prompt_list): for j, seed in enumerate(seed_list): payload { prompt: prompt, negative_prompt: ugly, blurry, steps: 30, cfg_scale: 7.5, seed: seed, width: 512, height: 512 } response requests.post(urlf{url}/sdapi/v1/txt2img, jsonpayload) r response.json() image Image.open(io.BytesIO(base64.b64decode(r[images][0]))) image.save(foutput_{i}_{j}.png)这个简单的脚本就能自动生成6张不同组合的图片。通过扩展这个脚本你可以实现非常复杂的自动化梦境生成流水线。6. 创意应用场景与未来展望“auto-dream”所代表的技术其应用远不止于生成几张漂亮的壁纸。它正在打开一扇通往新型内容创作的大门。1. 概念艺术与快速原型游戏和电影的概念设计师可以用它快速生成大量风格各异的场景、角色或道具草图从中筛选灵感。通过提示词描述一个模糊的概念如“蒸汽朋克风格的深海探测器”AI能在几分钟内提供数十种视觉方案极大加速前期创作流程。2. 动态视觉叙事结合Deforum这样的工具创作者可以制作短小的、充满艺术感的动画短片。这些短片可以用于音乐MV、诗歌可视化、抽象艺术表达或者作为更长篇作品的视觉测试片段。提示词序列就是你的分镜脚本。3. 个性化内容生成结合LoRA技术可以为个人或品牌训练专属的风格模型。比如一个服装品牌可以训练一个包含其产品设计元素的LoRA然后通过输入不同的场景提示词“模特在都市街头”、“在雪山脚下”自动生成产品在不同语境下的宣传图实现营销内容的批量个性化生产。4. 教育与研究工具在教学中可以用它来可视化抽象概念。比如输入“量子纠缠”、“神经网络激活”、“经济周期波动”等生成一系列象征性的、富有冲击力的图像帮助学生建立直观感受。对于AI研究者这类项目是探索模型潜空间几何结构、提示词语义影响的可视化 playground。未来这类技术可能会朝着几个方向发展一是更高的可控性和一致性比如通过更强大的空间控制模型实现复杂多角色、多物体场景的精确生成二是更强的时序理解能力生成更长、逻辑更连贯的叙事性视频而不仅仅是视觉风格的渐变三是多模态的深度融合不仅从文到图还能从图到文、从文到3D模型、从音乐到视觉形成一个闭环的创意生成系统。从我个人的使用体验来看目前最大的乐趣和挑战依然在于如何精准地通过提示词和参数与AI“沟通”。这既是一门技术也像是一种艺术。每一次调整参数后点击生成都像是一次开启未知盲盒的体验那种对结果的好奇与期待以及偶尔出现的远超预期的惊艳画面正是“造梦”过程最吸引人的地方。不妨从今天开始搭建你的环境输入第一个提示词看看AI会为你编织一个怎样的梦境。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2572195.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…