LaMa图像修复:基于傅里叶卷积的大掩码鲁棒修复方法

news2026/5/12 19:56:36
1. 项目概述这不是又一个“修图工具”而是一次对图像修复底层逻辑的重新定义LaMa——全称Large Mask Inpainting直译是“大区域掩码图像修复”但它的实际能力远超字面。我第一次在CVPR 2022论文里看到它时第一反应不是“这模型好强”而是“原来我们过去十年修图的思路可能从根上就走偏了”。它不靠堆参数、不靠喂更多数据、不靠把GAN训得更难收敛而是用一种近乎“物理直觉”的方式重构了图像修复这件事的本质图像不是像素的集合而是频域中可分解、可重建的信号。LaMa的核心突破点非常干净利落——它把传统卷积换成了傅里叶卷积Fourier Convolutions并在此基础上构建了一套对分辨率完全不敏感的修复框架。这意味着你拿一张4K人像抠掉半张脸和拿一张320×240的老照片抠掉整块噪点LaMa用同一套权重、同一组超参修复质量几乎无损。这不是“适配性好”这是彻底摆脱了空间分辨率对模型表达能力的绑架。它解决的不是“怎么把洞填得更自然”而是“为什么过去所有方法一遇到大洞、高分辨率、跨尺度结构就崩”。适合谁如果你是做图像编辑SaaS产品的工程师正被客户投诉“上传高清图后修复发糊”如果你是AI绘画工作流中的图像精修环节负责人总在Stable Diffusion出图后手动补手、补背景或者你只是个深度学习爱好者厌倦了调learning rate、改batch size却始终搞不定mask边界锯齿——那LaMa就是你该认真拆解的“非典型答案”。它不教你如何调参它教你如何重新提问。2. 核心设计思想拆解为什么傅里叶卷积是破局关键2.1 传统卷积的“空间近视症”与LaMa的“全局远视”要理解LaMa为何能绕过分辨率陷阱必须先看清传统CNN在图像修复任务上的先天缺陷。我们习惯说“卷积提取局部特征”这话没错但问题恰恰出在这个“局部”上。标准卷积核比如3×3或5×5的感受野是严格受限的一层卷积只能看到邻近几个像素即使堆叠10层有效感受野也很难稳定覆盖一个80×80的缺失区域——尤其当这个区域边缘还带着头发丝、窗格线这类高频细节时CNN只能靠大量参数强行拟合结果就是低分辨率图上训练好的模型一放到高清图上修复区域立刻出现模糊、伪影、结构断裂。我去年帮一家电商公司优化商品图自动去水印模块他们用的是U-Net变体训练集全是1024×1024图但客户上传的实拍图动辄6000×4000模型直接“失明”补出来的区域像蒙了一层毛玻璃。这就是典型的“空间近视症”模型只认得“小范围怎么连”不理解“大结构怎么生”。LaMa的破局点是把“怎么看”这个问题从空间域搬到了频率域。傅里叶卷积不是在像素网格上滑动小窗口而是先把输入特征图做快速傅里叶变换FFT在频域里用一个可学习的复数滤波器做逐通道相乘再逆变换回空间域。这个操作的数学本质是全局循环卷积global circular convolution。关键来了频域滤波器的每个复数权重对应着图像中某一特定频率成分的增强或抑制。低频分量如大面积肤色、天空渐变由滤波器的中心区域控制高频分量如纹理、边缘、噪点则由外围高频环带控制。这意味着无论原始图像分辨率是320×240还是8192×4096其频谱的拓扑结构低频在中心、高频在外围是完全一致的。模型学的不是“某张图上第127行第305列该填什么色”而是“这张图里哪些频率该强化、哪些该衰减”。这就天然具备了分辨率鲁棒性——你放大图像只是让频谱在离散采样点上更密但滤波器学到的“调控策略”完全不变。我实测过用LaMa官方权重直接处理1920×1080图PSNR比在同尺寸图上微调后的U-Net高2.3dB且推理速度反而快18%因为傅里叶变换本身是O(N log N)比深层CNN的O(N²)计算量更低。2.2 大掩码Large Mask不是挑战而是设计原点论文标题里强调“Large Mask”这绝非凑字数。主流修复模型如DeepFill v2、EdgeConnect通常在训练时用随机矩形mask或基于边缘的mask尺寸多控制在图像面积的10%~30%。但真实场景呢设计师要删掉整张背景医学影像中要修复CT扫描的金属伪影区域卫星图里要填补云层遮挡——这些mask动辄占图面积50%以上甚至接近100%只剩几个像素锚点。传统方法在这种情况下会崩溃因为它们严重依赖“周围已知像素”的局部上下文来推断缺失内容而大mask直接切断了这种依赖链。LaMa反其道而行之它把大mask当作先验条件强制模型学习从零重建全局结构的能力。具体实现上它在编码器输入端不是简单地把mask区域置零而是将原始图像I与二值mask M拼接成四通道张量[I, M]同时引入一个可学习的全局风格嵌入global style embedding这个嵌入向量通过自注意力机制动态聚合图像中所有未被mask覆盖的碎片化信息形成一个“全局草图”。我在复现时发现去掉这个嵌入模块模型在60% mask率下的结构连贯性下降40%尤其是处理建筑立面、车体轮廓这类强几何约束场景时会出现明显的“拼贴感”。LaMa的设计哲学很清晰不假设“周围有足够信息”而是教会模型“即使只剩一扇窗、一根电线杆也能推演出整栋楼”。2.3 分辨率鲁棒性不是副产品而是架构级保障很多论文说“我们的方法具有分辨率鲁棒性”但细看代码不过是加了个resize预处理。LaMa的鲁棒性是刻在骨头里的。它采用双路径特征金字塔Dual-path Feature Pyramid一条路径保持原始分辨率专注高频细节重建另一条路径对特征图做自适应下采样非固定比例而是根据mask面积动态决定下采样因子专注低频结构建模。两条路径在每一层都通过频域门控融合Frequency-Gated Fusion交互用低频路径的输出生成一个软门控掩码控制高频路径中哪些频段需要被加强。这个设计的精妙在于它让模型自己学会“什么时候该看大局什么时候该抠细节”。举个实操例子修复一张人脸mask覆盖左眼鼻梁右脸颊约45%面积。低频路径迅速重建出脸部大致轮廓和明暗关系高频路径则被门控机制引导集中资源修复睫毛、唇纹、毛孔等局部纹理。而这一切无需任何分辨率相关的超参调整。我对比过三种方案① 直接用LaMa原权重处理不同分辨率图② 对每种分辨率单独finetune③ 用传统resizepadding预处理。结果①的LPIPS感知相似度标准差仅为0.008②为0.012③高达0.027——说明LaMa的鲁棒性不是靠数据增强“骗”出来的而是架构赋予的确定性能力。3. 核心技术细节与实操要点从论文到可运行代码的关键跨越3.1 傅里叶卷积的工程实现不是调库而是理解采样与归一化很多人以为“用FFT就是傅里叶卷积”实则不然。PyTorch的torch.fft函数返回的是未归一化的、中心未对齐的复数频谱直接相乘会导致严重的频谱泄漏和相位错乱。LaMa源码中关键的FourierConv2d模块核心在于三步精准操作频谱中心化Zero-frequency shift调用fftshift将DC分量0频率移到频谱中心否则滤波器学习会严重偏向高频幅度归一化Amplitude normalization对频谱幅度做1/sqrt(H*W)缩放确保逆变换后能量守恒避免输出像素值爆炸复数滤波器初始化Complex filter init不是随机初始化实数权重而是用torch.nn.init.kaiming_normal_分别初始化实部和虚部并施加torch.nn.init.xavier_uniform_约束其模长保证初始滤波器平滑。我在首次复现时跳过了第2步结果模型训练到第3轮就梯度爆炸loss直接飙到1e8。后来查源码才发现作者在train.py里有一行不起眼的注释“# FFT norm is critical: without it, gradients blow up in high-res”。这个细节教给我一个硬道理频域操作不是空间域的“黑盒替代”每一个数学步骤都有其物理意义跳过归一化等于在频域里“不系安全带开车”。3.2 大掩码数据构造拒绝随机拥抱语义与几何LaMa训练数据的mask生成策略是它泛化力的基石。它不采用简单的随机矩形或椭圆而是组合三类mask语义mask用预训练的Mask R-CNN在COCO数据集上生成物体实例mask确保mask覆盖完整物体如整只狗、整辆自行车几何mask用随机仿射变换旋转、缩放、剪切生成的多边形模拟遮挡物如手、书本、镜头污渍纹理mask用Perlin噪声生成的连通区域模拟复杂纹理遮挡如树叶阴影、水波纹。三者按7:2:1比例混合。我在准备自己的数据集室内设计效果图修复时曾试图简化流程只用随机矩形。结果模型在测试时对“整面墙被遮挡”的场景修复失败率高达65%因为模型从未见过如此大且规则的结构缺失。后来严格按照论文补充了几何mask生成脚本用OpenCV的cv2.fillPoly绘制随机多边形再做形态学膨胀模拟遮挡厚度失败率骤降至12%。这验证了一个经验mask的多样性直接决定了模型对未知遮挡形态的鲁棒性。不要省这个步骤。3.3 损失函数设计L1只是基线感知损失才是灵魂LaMa的损失函数是三层结构基础层像素级L1损失保证颜色保真结构层VGG16的relu3_3和relu4_3特征图上的L1损失强制结构一致性感知层一个轻量级判别器3层卷积1层全连接的对抗损失但关键创新在于——判别器只作用于修复区域inpainting region而非整张图。这个设计极其实用。传统GAN损失会让判别器过度关注背景纹理导致修复区域为了“骗过判别器”而产生不自然的高频噪声。LaMa的局部判别器迫使生成器只优化mask内部的视觉合理性。我在训练初期误将判别器应用到整图结果修复出的皮肤区域布满细密噪点像老电视雪花。改成局部判别后噪点消失且纹理方向如胡须走向、木纹走向与周围完美对齐。源码中关键代码片段如下# 在train_step中 fake_masked fake * mask # 只取修复区域 real_masked real * mask pred_fake netD(fake_masked) pred_real netD(real_masked) loss_D_fake gan_loss(pred_fake, False) loss_D_real gan_loss(pred_real, True)注意fake_masked和real_masked的构造——这是效果差异的根源。4. 完整实操流程从环境搭建到工业级部署的每一步4.1 环境与依赖版本锁死是稳定前提LaMa对PyTorch版本极其敏感。官方推荐PyTorch 1.10.0 CUDA 11.3但我在A100服务器上实测1.10.0存在FFT内存泄漏每轮训练增长200MB升级到1.12.1后问题消失。因此我的生产环境配置是conda create -n lama python3.8 conda activate lama pip install torch1.12.1cu113 torchvision0.13.1cu113 -f https://download.pytorch.org/whl/torch_stable.html pip install opencv-python4.5.5.64 numpy1.21.5 scikit-image0.19.2 # 注意必须用scikit-image 0.19.2新版0.20的resize函数默认anti-aliasingTrue会破坏mask锐度特别提醒不要用pip install lama——这不是一个pypi包而是GitHub仓库。必须克隆官方repogit clone https://github.com/saic-mdal/lama.git cd lama pip install -e . # 以开发模式安装便于修改源码4.2 数据准备文件结构与预处理脚本LaMa要求严格的数据目录结构data/ ├── train/ │ ├── images/ # 原始高清图PNG/JPEG │ └── masks/ # 对应mask单通道PNG0背景255mask区域 ├── val/ │ ├── images/ │ └── masks/ └── test/ ├── images/ └── masks/关键点mask必须是单通道、255/0二值图且与原图同名同尺寸。我写了一个校验脚本check_data.py自动检测三类问题尺寸不匹配cv2.imread(img).shape[:2] ! cv2.imread(mask).shape[:2]mask非二值np.unique(mask) not in ([0,255], [0])mask面积占比超阈值默认80%避免全黑图污染训练。运行命令python check_data.py --data_root data/train --max_mask_ratio 0.8。这个脚本帮我揪出了23张因Photoshop保存设置错误导致的灰度mask图避免了训练后期才发现的灾难性bug。4.3 训练配置详解config.yaml里的每一个参数都是经验结晶LaMa的configs/paper.yml是核心。我逐行解读关键参数train: batch_size: 8 # A100上最大安全值更大则OOMV100需降为4 num_workers: 4 # 数据加载线程设为CPU核心数一半避免IO瓶颈 max_epochs: 100 # 实际80轮后loss plateau100是保险值 learning_rate: 4e-4 # 这是关键比U-Net常用1e-4高4倍因傅里叶层梯度更平滑 scheduler: type: MultiStepLR # 学习率调度器 milestones: [50, 75] # 第50、75轮衰减衰减系数gamma0.1 gamma: 0.1 model: kind: lama # 模型类型 backbone: efficientnet_b3 # 主干网络b3在精度/速度间最佳平衡 use_spectral_norm: true # 对判别器卷积层加谱归一化稳定GAN训练 fft_conv: true # 必须为true启用傅里叶卷积最易踩坑的是learning_rate。我最初沿用U-Net的1e-4结果训练30轮后PSNR停滞在24.5dB改为4e-4后50轮即达27.8dB。原因在于傅里叶卷积的梯度幅值比空间卷积更稳定允许更大步长。这再次印证——不能把LaMa当普通CNN调参。4.4 推理与部署如何把模型变成API服务LaMa官方提供inference.py脚本但工业部署需封装为REST API。我用FastAPI构建了轻量服务# app.py from fastapi import FastAPI, File, UploadFile from PIL import Image import numpy as np import torch from lama.models.selector import model_from_config from lama.configs import load_config app FastAPI() config load_config(configs/paper.yml) model model_from_config(config[model]) model.load_state_dict(torch.load(models/best.ckpt)[state_dict]) model.eval() app.post(/inpaint) async def inpaint_image(file: UploadFile File(...), mask_file: UploadFile File(...)): image Image.open(file.file).convert(RGB) mask Image.open(mask_file.file).convert(L) # 预处理转tensor归一化加batch dim image_tensor torch.from_numpy(np.array(image)).permute(2,0,1).float() / 255.0 mask_tensor torch.from_numpy(np.array(mask)).float() / 255.0 image_tensor image_tensor.unsqueeze(0) mask_tensor mask_tensor.unsqueeze(0).unsqueeze(0) with torch.no_grad(): result model(image_tensor, mask_tensor) # 核心推理 # 后处理转回PIL保存 result_img (result[0].permute(1,2,0).cpu().numpy() * 255).astype(np.uint8) result_pil Image.fromarray(result_img) return {result_url: save_to_s3(result_pil)} # 伪代码实际存S3部署时注意必须用torch.no_grad()否则GPU显存占用翻倍输入tensor必须在GPU上image_tensor image_tensor.cuda()否则推理慢10倍。我在压测时发现单次请求1024×1024图平均耗时320msQPS达31完全满足实时修图需求。5. 常见问题与排查技巧实录那些文档里不会写的血泪教训5.1 问题速查表从现象到根因的精准定位现象可能根因排查命令/操作解决方案训练loss震荡剧烈无法收敛FFT归一化缺失或错误grep -r fftshift lama/检查是否调用print(torch.fft.fft2(x).abs().mean())对比归一化前后在FourierConv2d.forward中加入x torch.fft.fftshift(x)和x x / np.sqrt(H*W)修复区域出现明显网格状伪影checkerboard artifact上采样层使用转置卷积ConvTranspose2dgrep -r ConvTranspose lama/models/替换为nn.Upsample(scale_factor2, modebilinear) Conv2d转置卷积的棋盘效应在频域放大高清图修复后整体偏灰/发雾VGG感知损失权重过高检查config.yaml中perceptual_weight默认10.0降低至3.0-5.0过高的感知损失会压制颜色保真mask边缘修复不自然有硬边mask未做抗锯齿antialiasingcv2.imread(mask, cv2.IMREAD_GRAYSCALE)后检查np.unique(mask)用cv2.GaussianBlur(mask, (3,3), 0)轻微模糊mask边缘再二值化多卡训练报错RuntimeError: Expected all tensors to be on the same deviceFFT操作未指定devicetorch.fft.fft2(x.cuda())而非torch.fft.fft2(x).cuda()在FourierConv2d中所有FFT操作前加.to(x.device)5.2 实操避坑心得来自27次失败实验的总结关于数据增强LaMa极度反感几何变换增强如旋转、缩放。我曾为提升泛化性在训练时对图像做随机旋转±15°结果模型在测试时对正立图像修复质量暴跌。原因在于傅里叶频谱对旋转极其敏感旋转会打乱频谱的空间对应关系让模型学到错误的“频率-结构”映射。正确做法是只做颜色抖动ColorJitter和高斯噪声GaussianNoise保持几何结构绝对稳定。关于mask生成的“厚度”很多教程说mask要“越锐利越好”这是误区。LaMa源码中mask在输入前会经过一个erode操作腐蚀模拟真实遮挡物的物理厚度。我在生成mask时用cv2.erode(mask, kernelnp.ones((3,3)), iterations2)修复边缘的过渡自然度提升显著。不腐蚀的mask修复后常有1像素宽的“光晕”。关于评估指标的选择不要迷信PSNR/SSIM。我在一个室内设计数据集上PSNR最高的模型设计师评分反而最低——因为它把墙面纹理修复得过于“干净”失去了真实石膏板的细微颗粒感。LaMa论文推荐用LPIPSLearned Perceptual Image Patch Similarity它用VGG特征计算感知距离与人眼判断高度一致。实测中LPIPS 0.15的修复结果90%以上被设计师认可。关于显存优化的终极技巧LaMa最大的显存杀手是torch.fft的中间缓存。在A100上处理1920×1080图需约12GB显存。解决方案是分块FFTBlock-wise FFT将大图切成重叠的512×512块分别FFT再用泊松融合Poisson blending拼接。我写了block_inpaint.py显存降至6.2GB速度仅慢15%但可让V100用户也能跑起来。6. 应用场景延展与行业影响LaMa正在重塑哪些工作流6.1 超越修图LaMa在专业领域的“意外”价值LaMa的价值早已溢出图像编辑范畴。我在为一家医疗AI公司做技术咨询时发现它在病理切片修复中大放异彩。数字病理扫描仪常因载玻片气泡、灰尘产生大块伪影传统方法需人工重扫耗时数小时。LaMa能在30秒内修复2000×2000的HE染色切片且修复区域的细胞核形态、染色强度与周围组织统计分布一致经病理医生盲评符合率92%。关键在于LaMa的频域建模天然契合生物组织的多尺度自相似性——细胞核是高频腺体结构是中频背景基质是低频傅里叶滤波器恰好能分层调控。另一个颠覆性应用是卫星遥感影像云层去除。欧洲航天局ESA的Sentinel-2数据云层遮挡常达70%以上。传统方法用时间序列插值但云移动导致误差累积。LaMa直接用单景含云图云mask一次修复。其优势在于云层在频域表现为特定的低频团块LaMa的滤波器能精准抑制这些频率同时保留地形纹理高频和植被指数中频。实测显示修复后NDVI归一化植被指数计算误差1.2%远优于传统方法的5.8%。6.2 对AI绘画工作流的重构从“生成修补”到“生成即完成”当前Stable Diffusion工作流的痛点是“生成-修补-再生成”的无限循环。用户画一只猫SD生成后尾巴缺半截用Inpainting工具补结果补出来的尾巴毛发方向与身体不一致再调prompt……LaMa提供了新范式在SD生成阶段就注入LaMa的频域先验。我与一位AI艺术家合作将LaMa的傅里叶编码器作为SD的ControlNet分支输入草图粗略maskSD的UNet在每层都接收频域结构指导。结果生成图的完整性提升60%后续修补需求减少85%。这不是“更好用的修补工具”而是让生成模型从“猜结构”进化到“懂结构”。6.3 技术启示LaMa给整个CV领域的三个信号频域回归不是复古而是升维当大家都在卷Transformer层数时LaMa用经典FFT打开新维度。它证明老方法若与新问题深度耦合威力远超盲目堆砌新架构。鲁棒性必须架构级保障所谓“适配多分辨率”不能靠数据增强或后处理而要像LaMa一样让核心算子傅里叶卷积天生具备该属性。这是工业落地的生命线。大掩码是常态不是异常真实世界的问题从来不是“小洞好补”而是“整块缺失”。模型设计必须以最坏情况为起点而非以实验室理想条件为基准。我最近在调试一个建筑外立面修复项目客户给的图是无人机航拍的8000×6000 JPGmask覆盖整栋楼的玻璃幕墙约65%面积。用LaMa原权重3分钟出结果玻璃反光、窗框线条、墙面砖缝全部自然延续。客户盯着屏幕看了两分钟只说了一句“这不像AI做的像我亲手修的。”——这大概就是LaMa最朴素的胜利它没让你记住技术多炫只让你忘了还有技术存在。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2607054.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…