AI开发者实战指南:从ResNet-18到CIFAR-10图像分类任务精解

news2026/4/30 6:12:06
1. 项目概述一个为AI开发者设计的任务库最近在GitHub上闲逛发现了一个挺有意思的仓库叫snarktank/ai-dev-tasks。光看名字你可能会觉得这又是一个普通的AI项目集合但点进去之后我发现它的定位非常精准专门为AI开发者设计的、用于练习和评估的编程任务集。这让我想起了自己刚入行时面对各种复杂的模型、框架和工具常常感到无从下手不知道从哪里开始练手才能系统性地提升。这个仓库恰恰就瞄准了这个痛点。简单来说ai-dev-tasks不是一个教你理论的教程也不是一个完整的应用项目。它更像是一个“靶场”或者“健身房”。里面提供了各种各样、难度不一的“靶子”任务让你可以在这里安全地练习你的“枪法”AI开发技能。无论是想熟悉一个新的深度学习框架还是想验证某个优化算法的效果或者只是想找一些有明确目标的小项目来练练手这个仓库都可能是一个不错的起点。它的价值在于提供了一个结构化的、目标明确的练习环境避免了开发者自己从零开始构思练习项目的麻烦和不确定性。2. 核心设计思路与任务架构解析2.1 为什么需要专门的AI开发任务库在深入代码之前我们先聊聊为什么会有这样的项目出现。AI开发尤其是深度学习和传统的Web开发或应用软件开发有很大不同。它的“开发”过程很大一部分是实验性的数据预处理、模型架构设计、超参数调优、训练过程监控、模型评估与部署。每一个环节都充满了不确定性并且严重依赖实践经验和直觉。对于新手来说直接上手Kaggle竞赛或者公司里的真实项目门槛太高容易受挫。而对于有经验的开发者想要快速验证一个新想法比如尝试一种新的注意力机制或者对比两种优化器也需要一个轻量级、标准化的环境而不是每次都从头搭建一个MNIST分类器。ai-dev-tasks的设计思路就是将这些常见的、具有代表性的AI开发场景抽象成一个个独立的、可复现的“任务单元”。每个任务都有明确的输入、输出和评估标准开发者可以像做“单元测试”一样去完成和验证自己的代码。2.2 仓库结构与任务分类浏览snarktank/ai-dev-tasks的仓库结构能清晰地看出其组织逻辑。它通常不会是一个庞大的、包含所有依赖的单一代码库而更像是一个任务描述和评估标准的集合。其核心结构可能包含以下几个部分tasks/目录这是仓库的核心。里面会按照领域或技能点对任务进行分类。例如computer_vision/包含图像分类、目标检测、图像生成等任务。natural_language_processing/包含文本分类、命名实体识别、文本生成等任务。reinforcement_learning/包含经典控制问题如CartPole的智能体训练任务。ml_engineering/包含模型部署、API封装、数据管道构建等偏工程化的任务。任务描述文件每个具体的任务例如image_classification_cifar10.md都是一个独立的Markdown文件。这个文件会详细说明任务目标用一两句话说清楚要做什么。例如“使用PyTorch框架在CIFAR-10数据集上训练一个图像分类模型并达到85%以上的测试准确率。”数据集指明使用的数据集如CIFAR-10并提供获取方式或脚本。技术要求建议或限制使用的框架、库的版本。评估指标明确如何评判任务完成的好坏如准确率、F1分数、推理速度。提交要求说明需要提交哪些内容如训练脚本、模型文件、评估结果报告。评估脚本与基线为了确保公平和自动化评估仓库可能会提供一些辅助脚本。例如evaluate.py一个通用的评估脚本读取你提交的模型和结果自动计算指标并与基线对比。baseline/目录下提供一些简单的基线实现例如一个几层的CNN以及其达到的性能指标。这为初学者提供了一个明确的追赶目标也为有经验的开发者设立了一个基准线。解决方案与讨论一个成熟的任务库可能还会有一个solutions/目录或通过Pull Request、Discussion来管理里面收录社区贡献的优秀实现。这不仅是答案更是学习不同思路和最佳实践的宝贵资料。注意以上结构是我基于常见开源项目实践和该仓库名称的合理推断。实际仓库的结构可能略有不同但核心思想——标准化、可评估、有层次的任务集合——是相通的。你在使用任何类似项目时都应首先花时间理解其目录结构和规则说明。3. 典型任务深度拆解与实操指南为了让大家有更具体的感知我们假设从ai-dev-tasks中挑选一个中等难度的任务进行拆解。我们以“使用PyTorch在CIFAR-10数据集上实现并训练一个ResNet-18模型目标测试准确率 90%”为例。这个任务涵盖了数据加载、模型定义、训练循环、评估验证等AI开发核心流程。3.1 任务准备与环境搭建在开始写第一行模型代码之前充分的准备能避免后续很多麻烦。1. 环境隔离与管理强烈建议使用虚拟环境。这是AI开发的第一条军规能有效解决依赖冲突。# 使用 conda如果已安装 conda create -n ai-tasks python3.9 conda activate ai-tasks # 或使用 venv python -m venv venv # Windows venv\Scripts\activate # Linux/Mac source venv/bin/activate2. 核心依赖安装任务描述通常会给出建议的版本。这里我们安装PyTorch和必要的数据处理、可视化工具。# 以PyTorch 1.12 CUDA 11.3为例请根据你的显卡和系统去官网获取对应命令 pip install torch1.12.1cu113 torchvision0.13.1cu113 --extra-index-url https://download.pytorch.org/whl/cu113 pip install numpy pandas matplotlib tqdm tensorboard为什么是这些版本版本锁定是为了确保任务的可复现性。PyTorch不同版本间API可能有细微变动固定版本可以保证任何人运行你的代码都能得到相同的结果。Tensorboard可选但推荐它对于可视化训练过程中的损失和准确率曲线至关重要能帮你直观判断模型是否在正常学习。3. 数据准备CIFAR-10数据集很小torchvision.datasets.CIFAR10可以自动下载。但在公司内网或需要重复实验时手动下载并指定本地路径是更好的实践。import torchvision.transforms as transforms from torchvision.datasets import CIFAR10 from torch.utils.data import DataLoader # 定义数据预处理流程 transform_train transforms.Compose([ transforms.RandomCrop(32, padding4), transforms.RandomHorizontalFlip(), transforms.ToTensor(), transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)), ]) transform_test transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)), ]) # 加载数据集 trainset CIFAR10(root./data, trainTrue, downloadTrue, transformtransform_train) testset CIFAR10(root./data, trainFalse, downloadTrue, transformtransform_test) # 创建数据加载器 trainloader DataLoader(trainset, batch_size128, shuffleTrue, num_workers2) testloader DataLoader(testset, batch_size100, shuffleFalse, num_workers2)RandomCrop和RandomHorizontalFlip这是两种最常用且有效的图像数据增强技术能增加数据的多样性防止模型过拟合。对于CIFAR-10这种小数据集尤其重要。Normalize的参数这里的均值(0.4914, 0.4822, 0.4465)和标准差(0.2023, 0.1994, 0.2010)是CIFAR-10数据集在RGB三个通道上计算出的全局均值和标准差。使用它们进行归一化可以让数据分布更接近标准正态分布加速模型收敛。3.2 模型定义与关键实现细节虽然PyTorch官方torchvision.models里提供了现成的ResNet-18但任务的目的往往是让你自己实现一遍以理解其核心结构——残差连接Residual Connection。1. 基础残差块BasicBlock的实现ResNet-18/34使用BasicBlock更深层的ResNet使用Bottleneck Block。理解BasicBlock是理解ResNet的关键。import torch.nn as nn import torch.nn.functional as F class BasicBlock(nn.Module): expansion 1 # 输出通道数的扩展倍数BasicBlock不扩展 def __init__(self, in_channels, out_channels, stride1, downsampleNone): super(BasicBlock, self).__init__() self.conv1 nn.Conv2d(in_channels, out_channels, kernel_size3, stridestride, padding1, biasFalse) self.bn1 nn.BatchNorm2d(out_channels) self.conv2 nn.Conv2d(out_channels, out_channels, kernel_size3, stride1, padding1, biasFalse) self.bn2 nn.BatchNorm2d(out_channels) self.downsample downsample # 用于匹配维度的下采样层1x1卷积 self.stride stride def forward(self, x): identity x # 保留输入作为“捷径shortcut”连接 out self.conv1(x) out self.bn1(out) out F.relu(out) out self.conv2(out) out self.bn2(out) # 如果输入输出维度不一致例如下采样时需要用1x1卷积调整identity的维度 if self.downsample is not None: identity self.downsample(x) # 核心操作残差连接 out identity out F.relu(out) return out为什么用biasFalse在卷积层后紧跟BatchNorm层时卷积的偏置项bias是冗余的因为BatchNorm会有一个可学习的偏移参数beta。去掉bias可以简化计算且不影响模型表达能力。downsample的作用当残差块的输入和输出通道数或空间尺寸通过stride1实现不同时直接相加会出错。downsample通常是一个包含1x1卷积和BatchNorm的序列用于将identity的维度投影到与out相匹配。2. 组装ResNet-18有了BasicBlock我们就可以像搭积木一样构建完整的ResNet-18。ResNet-18的结构是conv1 - bn1 - relu - maxpool - layer1 - layer2 - layer3 - layer4 - avgpool - fc。class ResNet(nn.Module): def __init__(self, block, layers, num_classes10): # CIFAR-10是10类 super(ResNet, self).__init__() self.in_channels 64 # 初始卷积层CIFAR-10图片小这里用3x3卷积代替原论文的7x7卷积大stride self.conv1 nn.Conv2d(3, 64, kernel_size3, stride1, padding1, biasFalse) self.bn1 nn.BatchNorm2d(64) self.relu nn.ReLU(inplaceTrue) # self.maxpool nn.MaxPool2d(kernel_size3, stride2, padding1) # CIFAR-10通常省略这一层 # 构建四个layer阶段 self.layer1 self._make_layer(block, 64, layers[0], stride1) self.layer2 self._make_layer(block, 128, layers[1], stride2) self.layer3 self._make_layer(block, 256, layers[2], stride2) self.layer4 self._make_layer(block, 512, layers[3], stride2) self.avgpool nn.AdaptiveAvgPool2d((1, 1)) self.fc nn.Linear(512 * block.expansion, num_classes) def _make_layer(self, block, out_channels, blocks, stride): downsample None # 判断是否需要下采样调整维度 if stride ! 1 or self.in_channels ! out_channels * block.expansion: downsample nn.Sequential( nn.Conv2d(self.in_channels, out_channels * block.expansion, kernel_size1, stridestride, biasFalse), nn.BatchNorm2d(out_channels * block.expansion), ) layers [] # 第一个block可能需要下采样 layers.append(block(self.in_channels, out_channels, stride, downsample)) self.in_channels out_channels * block.expansion # 后续的blockstride均为1不需要再下采样 for _ in range(1, blocks): layers.append(block(self.in_channels, out_channels)) return nn.Sequential(*layers) def forward(self, x): x self.conv1(x) x self.bn1(x) x self.relu(x) # x self.maxpool(x) x self.layer1(x) x self.layer2(x) x self.layer3(x) x self.layer4(x) x self.avgpool(x) x torch.flatten(x, 1) x self.fc(x) return x # 实例化ResNet-18: blockBasicBlock, layers[2, 2, 2, 2] def resnet18(num_classes10): return ResNet(BasicBlock, [2, 2, 2, 2], num_classes)_make_layer方法这是构建每个阶段如layer1包含2个BasicBlock的工厂函数。它智能地处理第一个block的维度匹配问题。CIFAR-10的适配原版ResNet是为ImageNet224x224设计的。对于CIFAR-1032x32通常进行两处修改1) 将首层7x7卷积改为3x3卷积2) 去掉紧随其后的最大池化层。这样可以避免在初始阶段就过度下采样丢失过多信息。3.3 训练循环的构建与核心技巧模型定义好后训练循环是将数据、模型、优化器和损失函数连接起来的引擎。一个健壮且高效的训练循环包含很多细节。1. 初始化模型、损失函数与优化器import torch.optim as optim device torch.device(cuda:0 if torch.cuda.is_available() else cpu) net resnet18().to(device) criterion nn.CrossEntropyLoss() # 多分类任务的标准损失函数 optimizer optim.SGD(net.parameters(), lr0.1, momentum0.9, weight_decay5e-4) scheduler optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max200) # 学习率调度器优化器选择对于ResNet在CIFAR-10上的训练带动量的SGD仍然是很多工作的首选它比Adam通常能收敛到更尖锐的极小值获得稍高的测试精度。学习率调度CosineAnnealingLR是一种非常有效的调度策略它让学习率随着训练周期从初始值缓慢衰减到0遵循余弦曲线。这通常比阶梯式下降StepLR效果更好。2. 核心训练与评估循环def train(epoch): net.train() running_loss 0.0 correct 0 total 0 for batch_idx, (inputs, targets) in enumerate(trainloader): inputs, targets inputs.to(device), targets.to(device) optimizer.zero_grad() # 清零梯度非常重要 outputs net(inputs) loss criterion(outputs, targets) loss.backward() # 反向传播计算梯度 optimizer.step() # 根据梯度更新参数 running_loss loss.item() _, predicted outputs.max(1) total targets.size(0) correct predicted.eq(targets).sum().item() # 每100个batch打印一次进度 if batch_idx % 100 99: print(fEpoch: {epoch}, Batch: {batch_idx1}, Loss: {running_loss/100:.3f}, Acc: {100.*correct/total:.2f}%) running_loss 0.0 def test(epoch): net.eval() # 切换到评估模式这会关闭Dropout、BatchNorm的统计更新 test_loss 0 correct 0 total 0 with torch.no_grad(): # 关闭自动求导节省内存和计算 for inputs, targets in testloader: inputs, targets inputs.to(device), targets.to(device) outputs net(inputs) loss criterion(outputs, targets) test_loss loss.item() _, predicted outputs.max(1) total targets.size(0) correct predicted.eq(targets).sum().item() acc 100. * correct / total print(fTest Epoch: {epoch}, Loss: {test_loss/len(testloader):.3f}, Accuracy: {acc:.2f}%) return acc # 主训练循环 best_acc 0 for epoch in range(200): # 训练200个epoch train(epoch) acc test(epoch) scheduler.step() # 每个epoch后更新学习率 # 保存最佳模型 if acc best_acc: print(fSaving best model with accuracy {acc:.2f}%) best_acc acc torch.save(net.state_dict(), resnet18_cifar10_best.pth)net.train()和net.eval()这是必须牢记的开关。在训练时模型需要前向计算、反向传播、更新参数BatchNorm层会使用当前批次的统计量并更新运行均值/方差。在评估时我们只需要前向计算BatchNorm层应使用训练阶段累积的运行统计量而不是当前批次的。with torch.no_grad()在评估和推理时使用这个上下文管理器可以显著减少GPU内存占用因为PyTorch不会为其中的操作构建计算图。梯度累积如果GPU内存不足以支撑大的batch_size可以采用梯度累积。即多次前向传播loss.backward()但不立即optimizer.step()累积梯度后再一次性更新参数。这相当于变相增大了有效batch size。4. 性能调优与突破90%的关键策略按照上述标准流程ResNet-18在CIFAR-10上达到85%-88%的准确率是相对容易的。但要突破90%甚至达到92%就需要引入一些进阶技巧。这正是ai-dev-tasks这类项目价值的体现——它促使你去探索标准流程之外的优化空间。4.1 数据增强的威力除了基础的随机裁剪和水平翻转更激进的数据增强能显著提升模型泛化能力尤其是对小模型和中小型数据集。Cutout随机将图像中的一块矩形区域置零通常是灰色。这强迫模型不能过度依赖图像的局部特征必须学会从全局理解图像。# Cutout实现示例 class Cutout: def __init__(self, n_holes, length): self.n_holes n_holes self.length length def __call__(self, img): h, w img.size(1), img.size(2) # CIFAR-10是CHW格式 mask np.ones((h, w), np.float32) for n in range(self.n_holes): y np.random.randint(h) x np.random.randint(w) y1 np.clip(y - self.length // 2, 0, h) y2 np.clip(y self.length // 2, 0, h) x1 np.clip(x - self.length // 2, 0, w) x2 np.clip(x self.length // 2, 0, w) mask[y1:y2, x1:x2] 0. mask torch.from_numpy(mask) mask mask.expand_as(img) img img * mask return img # 将其加入transform_train transform_train.transforms.append(Cutout(n_holes1, length16))AutoAugment / RandAugment这是谷歌提出的自动化数据增强策略通过搜索或随机选择一系列增强操作如旋转、色彩抖动、对比度调整等的组合。虽然搜索过程复杂但你可以直接使用torchvision.transforms中现成的AutoAugment策略。from torchvision.transforms import AutoAugment, AutoAugmentPolicy transform_train.transforms.insert(0, AutoAugment(AutoAugmentPolicy.CIFAR10)) # 放在最前面4.2 优化器与学习率策略的微调使用SGD with Nesterov MomentumNesterov动量是标准动量Momentum的改进版本它在计算梯度时进行了“前瞻”理论上收敛更快更稳定。optimizer optim.SGD(net.parameters(), lr0.1, momentum0.9, weight_decay5e-4, nesterovTrue)学习率热身Warmup在训练开始时模型参数是随机初始化的直接使用较大的学习率可能导致训练不稳定。Warmup策略在最初几个epoch或iteration中使用一个很小的学习率线性增长到预设值。from torch.optim.lr_scheduler import LambdaLR def warmup_lr_scheduler(optimizer, warmup_iters, warmup_factor): def f(x): # x是当前iteration/epoch if x warmup_iters: return 1 alpha float(x) / warmup_iters return warmup_factor * (1 - alpha) alpha return LambdaLR(optimizer, lr_lambdaf) # 先定义warmup scheduler warmup_scheduler warmup_lr_scheduler(optimizer, warmup_iters5, warmup_factor0.2) # 在每个iteration后调用 warmup_scheduler.step() # 在warmup结束后切换到CosineAnnealingLR标签平滑Label Smoothing在分类任务中我们通常使用one-hot硬标签。标签平滑将硬标签稍微“软化”给非目标类别一个很小的概率。这可以减轻模型对标签的过度自信起到正则化作用通常能提升零点几个百分点的精度。class LabelSmoothingCrossEntropy(nn.Module): def __init__(self, smoothing0.1): super(LabelSmoothingCrossEntropy, self).__init__() self.smoothing smoothing self.confidence 1.0 - smoothing def forward(self, x, target): logprobs F.log_softmax(x, dim-1) nll_loss -logprobs.gather(dim-1, indextarget.unsqueeze(1)) nll_loss nll_loss.squeeze(1) smooth_loss -logprobs.mean(dim-1) loss self.confidence * nll_loss self.smoothing * smooth_loss return loss.mean() criterion LabelSmoothingCrossEntropy(smoothing0.1)4.3 模型结构与训练技巧使用预训练权重虽然CIFAR-10和ImageNet差异较大但使用在ImageNet上预训练的ResNet-18权重作为初始化需要适配第一层卷积核和最后的全连接层然后进行微调Fine-tuning几乎总能带来提升并能大幅减少训练时间。混合精度训练AMP使用NVIDIA的Apex或PyTorch内置的AMPAutomatic Mixed Precision可以让模型在训练时部分使用FP16半精度浮点数从而减少GPU内存占用增大batch size并可能加快训练速度。这对于更大模型或更高分辨率图像尤为重要。from torch.cuda.amp import autocast, GradScaler scaler GradScaler() # 在训练循环中 with autocast(): outputs net(inputs) loss criterion(outputs, targets) scaler.scale(loss).backward() scaler.step(optimizer) scaler.update()知识蒸馏如果你有一个在CIFAR-10上表现更好的大模型教师模型可以用它来“教”你的ResNet-18学生模型。让学生模型不仅学习真实标签还学习教师模型输出的“软标签”概率分布这通常能让学生模型突破其本身架构的性能上限。通过系统性地应用以上几种策略的组合ResNet-18在CIFAR-10上达到92%甚至93%的测试准确率是完全可能的。这个过程本身就是完成ai-dev-tasks中一个高阶任务的完整旅程。5. 任务完成评估与结果提交完成训练和调优后你需要按照任务要求提交结果。一个专业的提交通常包含以下内容完整的、可运行的代码一个干净的Python脚本或Jupyter Notebook包含数据加载、模型定义、训练、评估的所有步骤。务必在文件开头通过注释或requirements.txt明确列出所有依赖包及其版本。训练日志记录每个epoch的训练损失、训练准确率、测试损失、测试准确率。最好能生成损失/准确率曲线图。最终模型文件保存性能最好的模型权重.pth或.pt文件。评估报告一个简短的Markdown或文本文件说明最终达到的测试准确率。所使用的关键技巧如数据增强、优化器、学习率策略等。训练硬件环境如GPU型号。训练总时长。任何有趣的观察或遇到的挑战。对于ai-dev-tasks这类项目它可能提供了自动化的评估脚本。你需要确保你的输出格式如模型保存路径、结果文件命名符合脚本的要求以便它能自动运行并给出评分。6. 从任务实践到能力提升的思考完成一个像“CIFAR-10 ResNet-18”这样的任务绝不仅仅是得到一串准确率数字。真正的收获在于过程中对以下问题的思考和解决超参数敏感性学习率、权重衰减系数、数据增强强度哪个影响最大你是如何系统地进行调优的是网格搜索、随机搜索还是基于经验的逐步调整调试与监控当损失不下降或准确率震荡时你如何排查是检查数据流、验证梯度是否正常还是可视化中间特征图效率与工程化你的训练脚本是否易于复用和扩展是否考虑了模型保存与加载、训练中断恢复、多GPU训练等工程实践理论联系实际残差连接为什么能缓解梯度消失BatchNorm在训练和评估时行为为何不同你现在是否有了更直观的理解snarktank/ai-dev-tasks这类项目库的价值就在于它提供了一个个聚焦的“实验场”。你可以在这里安全地试错、对比、深化理解。我建议不要满足于完成一个任务而是尝试用不同的方法去完成同一个任务比如用TensorFlow重写或者尝试不同的网络架构如VGG、EfficientNet并仔细分析结果差异背后的原因。这种对比实验带来的认知提升远比单纯刷高分数要大得多。最终当你能够游刃有余地解决库中的一系列任务并开始思考如何设计新的、有挑战性的任务时你就已经从一个AI代码的“使用者”成长为一个有扎实工程能力和深刻见解的“开发者”了。这才是这类项目最根本的目的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2554899.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…