OneTrainer:一站式扩散模型训练工具,从LoRA到全参数微调

news2026/5/13 21:22:43
1. 项目概述一站式扩散模型训练工具如果你正在寻找一个能搞定从Stable Diffusion到FLUX.2从LoRA微调到全模型训练并且自带数据集处理、模型转换和实时采样功能的“瑞士军刀”级工具那OneTrainer绝对值得你花时间研究。我最初接触它是因为厌倦了在多个独立工具间来回切换的繁琐——准备数据集要用一个脚本训练模型要开另一个界面想中途看看效果还得切到WebUI。OneTrainer把这些环节都整合进了一个界面用起来有种“终于有人把这事想明白了”的感觉。简单来说OneTrainer是一个开源、跨平台Windows、Linux、Mac的图形化应用程序专为生成式AI图像模型的训练和微调设计。它的核心价值在于“一体化”你不再需要分别安装和管理一堆零散的Python脚本、命令行工具和Web服务。无论是想为自己收藏的几百张角色图训练一个专属LoRA还是想用最新的学术论文方法对SDXL模型进行全参数微调你都可以在同一个软件里完成从数据预处理、模型配置、训练监控到效果测试的全流程。这对于独立创作者、小型工作室甚至是有特定需求的研究者来说能极大降低工作流的复杂度和学习成本。2. 核心功能与设计思路拆解OneTrainer的设计哲学非常清晰为专业级的扩散模型训练提供一个功能完备、可配置性强且用户友好的操作环境。它不是某个大型平台的附属功能而是一个专注解决“训练”这个单一但复杂问题的独立工具。下面我们来拆解它几个关键的设计思路和对应的功能实现。2.1 广泛的模型与训练方法支持OneTrainer的模型支持列表读起来就像一份生成式AI的近期发展史。从经典的Stable Diffusion 1.5/2.1到当前主流的SDXL、Stable Cascade再到前沿的FLUX.1、FLUX.2、PixArt-Sigma等它几乎囊括了所有热门的开源扩散模型。更重要的是它同时支持.ckpt检查点和diffusers两种主流的模型格式。这意味着你从Civitai下载的社区模型或者从Hugging Face拉取的官方模型大多都能直接导入使用省去了格式转换的麻烦。在训练方法上它提供了完整的梯度全参数微调适用于当你拥有大量通常数千张以上高质量数据并希望彻底改变模型风格或让其学习一个全新概念时。这会更新模型的所有权重产出的是一个独立的新基础模型。LoRA这是目前社区最流行的微调方式尤其适合角色、画风定制。LoRA通过向模型注入少量的、可训练的“低秩适配”矩阵在不改动原模型庞大参数的情况下实现高效学习。OneTrainer对LoRA的支持非常成熟包括设置不同的秩、缩放因子等。文本嵌入这是一种更轻量级的方法通常用于学习单个概念或风格。它训练的是文本编码器中的嵌入向量文件体积极小几十KB但灵活性和表现力通常不如LoRA。这种全方位的支持背后是开发团队对生态兼容性的重视。他们确保工具能跟上社区快速迭代的步伐让用户不必因为想尝试新模型而更换训练工具。2.2 提升训练效率与质量的关键特性除了基础训练OneTrainer集成了一系列能切实提升出图效果和训练效率的“黑科技”特性这些往往是新手容易忽略但资深使用者非常看重的点。1. 掩码训练这个功能允许你为训练集中的每张图片指定一个蒙版mask让模型在训练时只关注蒙版内的区域。这有什么用呢举个典型例子你想训练一个关于“眼镜”的LoRA。如果你的数据集里人物都戴着眼镜模型可能会将“眼镜”特征与“人脸”特征混淆。通过使用蒙版可以用内置工具自动生成或手动绘制让模型只学习眼镜区域就能更干净地学会“眼镜”这个概念避免人物面部特征被污染。这对于学习局部物体、配饰或进行局部画风转换至关重要。2. 图像增强高质量的数据集是训练成功的一半但收集成千上万张图片并不现实。图像增强功能通过在训练时对图片进行随机的、轻微的变换如旋转、亮度/对比度调整、饱和度变化等在不改变语义内容的前提下有效地扩充了数据集的多样性。这能显著提升模型的泛化能力防止过拟合让训练出的LoRA或模型在应对不同构图、光照条件时更加鲁棒。3. 多分辨率与长宽比分桶训练扩散模型对输入图像的尺寸很敏感。OneTrainer的“多分辨率训练”允许你同时指定多个目标分辨率进行训练。而“长宽比分桶”则更进一步你设定几个目标分辨率如512x512, 512x768, 768x512软件会自动将你的训练图片按接近的长宽比分配到不同的“桶”中训练时按桶加载并统一缩放到该桶的目标分辨率。这样做有两个巨大好处一是避免了将图片强行拉伸变形导致的失真二是能让模型更好地学习不同构图生成时在多种比例下都有好效果。这对于希望模型能适应手机壁纸、电脑横幅等各种场景的用户来说非常实用。4. 噪声调度重缩放与EMA“噪声调度重缩放”基于一篇题为《Common Diffusion Noise Schedules and Sample Steps are Flawed》的论文实现。简单理解它优化了扩散模型在加噪和去噪过程中噪声强度的变化曲线使得在采样步数较少时比如20步也能获得更稳定、质量更高的输出。这对于追求生成效率的用户是个福音。 EMA是指数移动平均它是一种在训练过程中维护模型权重“平滑版本”的技术。这个平滑后的版本通常比最终训练得到的模型更稳定、泛化能力更好。OneTrainer允许你同时训练EMA模型并可以将其权重保存在CPU内存中以节省宝贵的GPU显存。2.3 内置的实用工具链OneTrainer不仅仅是个训练器它把训练前后所需的配套工具都打包了进来形成了闭环。数据集工具支持使用BLIP、BLIP2、WD-1.4等模型为图片自动生成描述词也支持用ClipSeg或Rembg自动为图片生成蒙版用于掩码训练。你可以在GUI里批量处理大大减少了数据准备的体力劳动。模型工具提供了图形化界面用于在不同模型格式如.ckpt、.safetensors、diffusers目录之间进行转换。对于经常在不同平台间迁移模型的用户这个功能很省心。训练中采样你可以在训练过程中随时在软件内启动一个采样任务用当前的模型中间状态生成图片而无需中断训练或打开其他软件。这对于监控训练进度、及时调整参数至关重要。注意虽然OneTrainer功能强大但它本质上是一个本地化工具对硬件有一定要求。训练SDXL或FLUX这类大模型建议至少拥有12GB以上显存的GPU如RTX 3060 12G、RTX 4070等。对于LoRA训练8GB显存通常也够用但批次大小和分辨率需要调低。3. 从零开始安装与环境配置详解OneTrainer提供了自动和手动两种安装方式。对于绝大多数用户特别是Windows用户自动安装脚本是最省心的选择。但了解手动安装的步骤有助于你排查可能的环境问题。3.1 自动安装推荐自动安装脚本会帮你完成克隆仓库、创建Python虚拟环境、安装所有依赖包的过程。确保系统已安装Git和Python。这是前置条件。Python版本必须 3.10 且 3.14。可以从Python官网下载安装包安装时务必勾选“Add Python to PATH”。克隆仓库。打开命令行终端导航到你希望安装的目录执行git clone https://github.com/Nerogar/OneTrainer.git这会在当前目录创建一个名为OneTrainer的文件夹。运行安装脚本Windows直接双击文件夹内的install.bat文件或在命令行中进入OneTrainer目录后执行它。Linux/Mac在终端中先进入OneTrainer目录然后为脚本添加执行权限并运行cd OneTrainer chmod x install.sh ./install.sh脚本会自动运行。整个过程会下载数百MB到上GB的依赖包主要是PyTorch和扩散模型相关库耗时取决于你的网络速度请耐心等待。3.2 手动安装与潜在问题排查如果你喜欢更可控的方式或者自动安装遇到了问题可以遵循手动步骤克隆仓库同上。进入目录并创建虚拟环境cd OneTrainer python -m venv venv激活虚拟环境Windows (CMD/PowerShell)venv\Scripts\activateLinux/Mac (bash/zsh)source venv/bin/activate激活后命令行提示符前通常会显示(venv)字样。安装依赖pip install -r requirements.txt常见系统级依赖问题Linux (Ubuntu/Debian) 缺少libGL可能导致一些图像处理库无法运行。安装命令sudo apt update sudo apt install libgl1-mesa-glxLinux 缺少tkinter这是Python的GUI工具包OneTrainer的界面依赖它。在Arch Linux上sudo pacman -S tk。在基于Alpine的系统上apk add py3-tk。实操心得强烈建议使用虚拟环境。这能将OneTrainer的依赖与系统Python或其他项目的环境完全隔离避免版本冲突。如果安装过程中pip报错可以尝试使用国内镜像源加速例如pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple3.3 更新与启动当项目发布新版本时你可以轻松更新自动更新运行项目根目录下的update.batWindows或./update.shLinux/Mac。手动更新cd OneTrainer git pull venv\Scripts\activate # 或 source venv/bin/activate pip install -r requirements.txt --force-reinstall安装完成后启动图形界面Windows双击start-ui.bat。Linux/Mac在终端中先激活虚拟环境然后执行./start-ui.sh。首次启动可能会稍慢因为它需要加载一些基础模型和组件。成功启动后你将看到OneTrainer的主界面。4. 图形界面实战训练你的第一个LoRA假设我们的目标是训练一个LoRA来学习一种特定的插画风格。我们将通过GUI模式完成全流程。4.1 数据准备与预处理在开始训练前我们需要一个高质量的数据集。假设我们已经收集了30-50张同一插画师、风格统一的图片。创建项目文件夹在硬盘上建立一个清晰的项目文件夹例如My_Style_LoRA。在里面创建子文件夹image把所有训练图片放进去。使用内置标注工具在OneTrainer主界面找到并打开“Caption UI”或类似的数据集工具。将image文件夹路径导入。选择自动标注模型例如BLIP2对于描述场景和物体较好或WD-1.4 Tagger对于打标签和风格描述较好。点击开始软件会为每张图生成文本描述。关键步骤手动精修标注。自动生成的描述往往不够精确。你需要逐一检查并编辑这些.txt文件确保描述词准确反映了该图片的核心内容并且风格关键词保持一致。例如每张图的描述末尾都加上“, in the style of [艺术家名]”。一致的触发词是LoRA成功的关键。可选生成掩码如果我们的风格涉及特定主体比如总是画猫我们可以使用“Mask UI”用Rembg工具自动抠出猫生成蒙版为掩码训练做准备。4.2 模型与训练配置回到主训练界面开始配置核心参数。基础设置模型选择一个与你的图片风格最接近的基础模型。例如如果你的目标风格是基于动漫可以选择Anything系列的模型如果是写实风格则选择SDXL或Realistic Vision的底模。加载模型路径。训练方法选择LoRA。输出目录指定一个文件夹来保存训练过程中的模型快照和日志。数据集配置添加你的image文件夹作为训练目录。概念设置这里你需要定义一个“概念”。为它起个名字如my_style并设置“触发词”。这个触发词就是你未来在生成图片时需要输入的、用于调用该LoRA的词例如[风格名]。在“初始化文本”中可以填入一个更通用的描述如a painting, in the style of [风格名]。分桶设置勾选“启用分桶”并添加几个常用的分辨率如1024x1024,1024x768,768x1024针对SDXL。软件会自动将图片分组。LoRA与网络参数网络维度/Alpha这是LoRA的核心参数。“维度”决定了LoRA的复杂度和能力通常设置在4-128之间。对于风格学习32或64是个不错的起点。“Alpha”是缩放因子通常设置为维度的一半或相等如维度32Alpha设16或32。更高的维度能学习更复杂的特征但也更容易过拟合。Dropout可以设置一个较小的值如0.1来防止过拟合。优化器与学习率优化器AdamW8bit是一个省显存且效果不错的选择。学习率这是最重要的参数之一。对于LoRA训练学习率不宜过高。一个常见的起点是1e-4。你可以使用“余弦退火”等学习率调度器让学习率在训练过程中逐渐下降。训练步数/轮次根据数据集大小决定。对于50张图每张图重复10-15次即总步数图片数*重复次数可能设置500-750步是一个初始尝试值。可以设置每N步保存一个检查点。启用实用功能勾选“图像增强”使用默认的轻微变换即可。如果需要勾选“EMA”并设置一个衰减参数如0.995。在“采样”标签页设置一个采样提示词例如a castle, in the style of [风格名]并启用定期采样如每100步采样一次。这能让你直观看到学习进度。4.3 启动训练与监控配置完成后点击“开始训练”。OneTrainer会先进行数据预处理分桶、加载等然后开始迭代。监控你可以观察控制台输出的损失值曲线。理想情况下损失值应该稳步下降并逐渐趋于平缓。如果损失值剧烈波动或降不下去可能是学习率太高或数据有问题。实时采样在训练过程中你可以切换到采样标签页查看定期生成的样本图片。这是判断训练是否朝着正确方向发展的最直接方式。如果样本开始出现你想要的风格特征说明训练有效。中断与恢复OneTrainer支持自动备份。如果训练中途停止下次可以直接加载最新的检查点文件继续训练进度不会丢失。训练完成后你会在输出目录中找到生成的.safetensors格式的LoRA文件。将其放入你的Stable Diffusion WebUI如AUTOMATIC1111或ComfyUI对应的LoRA模型文件夹就可以在生成时通过触发词调用了。5. 命令行模式为批量与自动化任务赋能虽然GUI适合交互式操作但当你需要批量训练多个模型、将训练流程集成到自动化脚本中或者在无图形界面的服务器上运行时CLI模式就变得不可或缺。OneTrainer的所有核心功能都提供了对应的Python脚本。5.1 CLI核心脚本概览所有脚本都位于项目根目录的scripts/文件夹下。使用前请确保已激活虚拟环境。train.py: 核心训练脚本。通过配置文件驱动所有训练过程。create_train_files.py: 为CLI训练创建必要的配置文件。generate_captions.py: 使用指定模型为数据集批量生成描述。generate_masks.py: 为数据集批量生成蒙版。sample.py: 使用训练好的模型进行采样生成。convert_model.py: 在命令行下转换模型格式。5.2 使用CLI进行一次完整训练CLI训练的核心是使用create_train_files.py生成一个配置文件然后用train.py读取这个配置。步骤一创建训练配置文件cd OneTrainer venv\Scripts\activate # 激活环境 python scripts/create_train_files.py ^ --preset lora ^ --model_path D:/models/sd_xl_base_1.0.safetensors ^ --train_data_dir D:/datasets/my_style ^ --output_dir D:/training_output ^ --concept_name my_style ^ --trigger_word [style] ^ --num_train_epochs 10 ^ --learning_rate 1e-4 ^ --network_dim 64 ^ --network_alpha 32 ^ --resolution 1024,1024这个命令会基于你提供的参数在输出目录生成一个config.json文件。--preset参数非常有用它提供了一些预设配置模板。步骤二启动训练python scripts/train.py --config D:/training_output/config.json训练将开始并在控制台打印日志。你可以使用--debug参数开启更详细的日志或使用--resume参数从之前的检查点恢复训练。步骤三批量处理与自动化CLI的真正威力在于脚本化。你可以写一个批处理脚本.bat或Shell脚本.sh依次执行使用generate_captions.py为多个数据集生成标注。循环调用create_train_files.py为每个数据集生成不同的训练配置。循环调用train.py启动多个训练任务如果显存够甚至可以配合任务队列。所有训练结束后调用sample.py对产出的所有LoRA进行统一测试。这种方式非常适合需要定期用新数据更新模型或是对大量不同主题进行并行训练的场景。注意事项CLI模式要求你对训练参数有更深入的理解因为所有配置都需要通过命令行参数指定。建议先在GUI中调试出一组效果不错的参数然后观察GUI生成的配置文件结构再迁移到CLI命令中。使用python scripts/train.py -h可以查看所有可用参数及其说明。6. 高级技巧与疑难问题排查即使工具再完善在实际操作中依然会遇到各种问题。下面分享一些从实际使用中总结出的经验和常见问题的解决方法。6.1 提升LoRA训练质量的技巧数据质量高于数量30张标注精准、构图多样、高质量的图片远胜于300张模糊、重复、标注混乱的图片。在放入训练集前务必手动筛选和清洗。标注词的“分层”与“加权”不要只写一串词。利用OneTrainer支持的多提示词功能可以为一幅画设置不同权重的描述。例如(masterpiece, best quality), 1.2 a serene landscape with mountains and a lake, 1.0 in the style of studio ghibli, detailed background, 1.1这能让模型更清晰地理解哪些元素更重要。学习率与步数的权衡如果训练步数较少如500步可以使用稍高的学习率如5e-4快速收敛。如果步数较多如2000步则应使用较低的学习率如1e-4并配合余弦退火让模型学得更精细避免过拟合。使用“梯度累积”应对小显存如果你的GPU显存不足以支持较大的批次大小可以增大“梯度累积步数”。例如目标批次大小为4但显存只够1那么设置梯度累积步数为4效果上近似于批次大小4但训练时间会变长。6.2 常见错误与解决方案速查表问题现象可能原因排查与解决思路启动时提示Python或模块错误Python版本不对或虚拟环境未激活/依赖未安装。确认Python版本为3.10-3.13。进入OneTrainer目录激活虚拟环境(venv\Scripts\activate)重新运行pip install -r requirements.txt。训练时GPU显存溢出批次大小、分辨率、模型尺寸过大。1. 降低批次大小。2. 降低训练分辨率。3. 启用梯度检查点如果选项存在。4. 使用--lowvram或--medvram参数CLI。5. 考虑使用LoRA而非全微调。训练损失不下降或NaN学习率过高数据集或标注有问题模型文件损坏。1. 大幅降低学习率如从1e-4降到1e-5。2. 检查数据集图片是否能正常打开标注文件是否为UTF-8编码且无异常字符。3. 尝试另一个基础模型。4. 关闭图像增强试试。生成的LoRA效果差过拟合训练步数过多数据多样性不足网络维度太高。1. 减少训练步数/轮次。2. 增加图像增强的强度或方式。3. 降低LoRA网络维度。4. 增加Dropout率。5. 在数据标注中加入更通用的类别词。生成的LoRA效果差欠拟合训练步数不足学习率太低触发词未生效。1. 增加训练步数。2. 适当提高学习率。3. 确保生成时使用了正确的触发词并且LoRA权重已加载。4. 检查标注是否准确描述了图片内容。无法生成掩码或标注对应的AI模型如Rembg, BLIP未下载成功。首次使用相关功能时OneTrainer会从Hugging Face下载模型。检查网络连接或尝试手动配置科学上网环境确保合规。有时需要重启应用。采样时图片全黑或全灰VAE不匹配或采样参数极端。确保使用与基础模型配套的VAE。检查采样器的步数、CFG Scale是否在合理范围如Euler a, 20-30步CFG 7-9。6.3 模型转换与集成训练好的LoRA或模型最终需要在像Stable Diffusion WebUI这样的生成环境中使用。OneTrainer训练出的LoRA文件.safetensors通常可以直接使用。如果遇到问题可以使用内置的模型转换工具打开“Convert Model UI”。选择输入模型路径和格式如OneTrainer训练输出的格式。选择输出格式如diffusers目录格式或.safetensors。点击转换。对于全模型微调产生的巨大模型文件转换可能耗时较长。转换完成后将模型文件放入WebUI对应的models/Stable-diffusion文件夹重启WebUI即可识别。最后训练生成式AI模型是一个需要耐心和反复实验的过程。OneTrainer提供了强大的工具但“炼丹”的成功很大程度上取决于你对数据、参数和模型行为的理解。我的建议是从一个非常小的、目标明确的数据集开始比如只训练一个特定物体用默认参数跑一个短时间的训练先走通整个流程观察采样结果。然后每次只调整一个变量比如学习率、步数或数据标注方式记录下结果的变化逐步积累属于你自己的经验直觉。这个工具降低了操作门槛但创造优秀结果的始终是屏幕后面的你。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2610289.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…