MNIST数字手写体识别

news2026/5/6 1:15:05
目录1.图像数据的处理2.多分类问题的输出层3.基于MLP进行数字手写体识别4.TensorBoard可视化工具1.图像数据的处理图像数据可以通过图像处理库Pillow读取首先安装:pip install pillowpip install torchvisionpip install tensorboardfrom PIL import Image import numpy as np # 打开图像文件 image_path ./cat.png image Image.open(image_path) # 显示图像 image.show() # 转换为灰度图 image_grey image.convert(L) image_grey.show() # 将 PIL 图像转换为 NumPy array # 原图 image_np np.array(image) # 灰度图 image_grey_np np.array(image_grey) # 打印 NumPy 数组的形状 print(原图 NumPy 数组的形状, image_np.shape) # (height, width, channel) print(灰度图 NumPy 数组的形状, image_grey_np.shape) # (height, width) # 打印 NumPy 数组的类型 print(原图 NumPy 数组的数据类型, image_np.dtype) # uint8: [0, 255] print(灰度图 NumPy 数组的数据类型, image_grey_np.dtype) # uint8: [0, 255]我们在代码中直接使用了torchvision内置的dataset:# 从 torchvision 库中导入 datasets用于加载经典数据集和 transforms用于数据预处理/增强 from torchvision import datasets, transforms # 使用 Compose 将多个图像预处理操作组合成一个流水线后续会按顺序依次执行 transform transforms.Compose([ # ToTensor() 变换 # 1. 将输入的 PIL 图像或 NumPy 数组 (形状为 H x W x C, 像素值 0-255) 转换为 PyTorch 的 FloatTensor # 2. 将张量的形状调整为 (C x H x W)符合 PyTorch 处理图像的格式 # 3. 将像素值从 [0, 255] 黑-0白-255归一化缩放到 [0.0, 1.0] 之间 transforms.ToTensor(), # Normalize() 变换对张量进行标准化 (Z-score normalization) # 公式output[channel] (input[channel] - mean[channel]) / std[channel] # 这里传入的 (0.5,) 是均值 (mean)第二个 (0.5,) 是标准差 (std) # 由于前面 ToTensor 已经把数据缩放到 [0, 1]经过 (x - 0.5) / 0.5 计算后 # 数据范围会被进一步映射到 [-1.0, 1.0] 之间这有助于模型更快收敛 transforms.Normalize((0.5,), (0.5,)) ]) # 加载 MNIST 手写数字数据集的训练集 # root./mnist/: 指定数据集下载/读取的根目录文件夹 # trainTrue: 设置为 True 表示加载训练集 (training set)False 则加载测试集 # downloadTrue: 如果 root 指定的路径下没有数据集文件则自动从互联网下载 # transformtransform: 指定前面定义的预处理流水线数据加载时会自动对图像进行变换 train_dataset datasets.MNIST(root./mnist/, trainTrue, downloadTrue, transformtransform)2.多分类问题的输出层数字手写体识别是一个多分类任务0 ~ 9的每个数字分别对应于一类一共有10类。多分类问题的输出层节点数量等于类别数输出层的非线性函数为Softmax每个节点预测的是样本属于对应类别的条件概率。设输出层的输入为输出为权重矩阵为(其中第i列对应于第i个输出节点的权重向量)偏置向量为则:设则是判别式模型。判别式模型直接基于输入数据学习条件概率分布 P(Y∣X)以此对输入样本完成分类或回归预测。如逻辑回归。生成式模型先对输入与标签的联合概率分布 P(X,Y) 建模再通过贝叶斯定理推导得到条件概率 P(Y∣X) 完成预测同时具备生成新样本的能力。如朴素贝叶斯。注意由于softmax输出的是概率因此需要保证各节点输出的总和为1.0各个结点之间存在竞争关系分母对应的是归一化项。经过softmax之后每个节点的输出不仅与对应的有关而且与所有节点的线性输出都有关系这一点与其他的激活函数不同。多分类问题的损失函数一般为交叉熵 (CE, Cross Entropy)定义为其中k表示第几个样本是一个整数表示样本实际属于的类别标签。交叉熵损失函数可以从两个角度进行理解。1从对数似然函数的角度可以看出实际上是负对数似然函数。极小化等价于极大化对数似然函数。2从信息论的角度交叉熵衡量的是两个概率分布之间的差异两者之间的差异越小则交叉熵越小。假设我们有两个概率分布P和Q其中P是真实分布Q是模型预测的分布那么交叉熵定义为其中模型预测的分布Q为softmax的输出即而真实分布P是一个1-0分布即真实类别的概率为1.0 其余类别的概率为0.0因此交叉熵 H(P , Q) 可以转化为给数据加上表示样本序号的上标可以看出和的公式是一致的。当真实分布是1-0分布时交叉墒损失和负对数似然损失是等价的。补充工程细节PyTorch 中nn.CrossEntropyLoss()nn.LogSoftmax()nn.NLLLoss()正是基于该等价性为 1-0 硬标签分类任务设计的封装接口也是常规分类任务的标准用法。知识蒸馏经典范式用强模型拟合的分布作为准真实分布。「更强大的模型」知识蒸馏中的教师模型Teacher Model通常是参数量大、训练充分、拟合能力极强的预训练大模型已充分学习到数据的深层规律。「猜的真实分布」教师模型输出的软标签Soft Label不是 1-0 的 one-hot 硬标签而是完整的类别概率分布如 3 分类任务中输出[0.98, 0.015, 0.005]是对数据真实分布的最优工程逼近。人工标注的 1-0 硬标签仅包含 “非黑即白的对错”无额外信息而教师模型输出的软分布包含了硬标签完全缺失的暗知识Dark Knowledge—— 比如类别间的关联信息“猫和老虎的相似度远高于猫和汽车”、数据的细粒度规律这正是轻量小模型很难从稀疏硬标签中学到的核心知识。知识蒸馏的核心逻辑就是把教师模型输出的软分布当作训练学生模型的「准真实分布」让小模型通过拟合该分布迁移大模型的深层知识最终用极小的参数量达到接近大模型的效果。当我们改用教师模型的软分布作为真实分布时该分布不再是 1-0 的 one-hot 分布所有类别都有非零概率值此时交叉熵与负对数似然的等价性被完全打破交叉熵损失会计算完整概率分布的拟合误差完整保留教师模型的暗知识是知识蒸馏训练的标准损失函数负对数似然损失仅关注单一真实类别的预测概率会完全丢弃软分布中的类别关联信息无法实现知识迁移。常规硬标签分类任务中真实分布为 1-0 的 one-hot 分布交叉熵损失与负对数似然损失完全等价可直接使用封装好的交叉熵损失完成训练知识蒸馏的经典范式中会放弃人工 1-0 硬标签改用强教师模型输出的软概率分布作为准真实分布这一做法既实现了大模型到小模型的知识迁移也打破了两类损失的等价性必须使用完整交叉熵损失完成训练。Softmax 函数的求导softmax 函数的输入和输出是向量设其长度为 C 。梯度矩阵 J 的尺寸为C,C输入是Zjj是输入结点的下标输出是Pii是输出结点的下标1当 i, j 相等时和Sigmoid类似2当 i, j 不等时3.基于MLP进行数字手写体识别数据集 基于 PyTorch 实现的 MNIST 手写数字识别多层感知机MLP训练脚本 功能包含 - 自定义 MLP 模型构建 - 训练循环与验证 - TensorBoard 可视化训练过程 - 早停Early Stopping机制 - 模型保存与加载 - 测试集最终评估 import torch # PyTorch 核心库 import torch.nn as nn # 神经网络模块包含层、损失函数等 from torch.utils.data import DataLoader, Dataset, random_split # 数据加载工具DataLoader、Dataset基类、数据集拆分 from torch.optim import SGD # 随机梯度下降优化器 from torchvision import datasets, transforms # 计算机视觉工具常用数据集、图像变换 from typing import Union # 类型提示联合类型 import os # 操作系统接口路径操作、目录管理 from torch.utils.tensorboard import SummaryWriter # TensorBoard 可视化写入器 class MLP(nn.Module): 多层感知机Multi-Layer Perceptron, MLP模型 使用 nn.Sequential 顺序构建隐藏层带 ReLU 激活和输出层 def __init__(self, dims): 初始化 MLP 模型 参数: dims (list): 维度列表依次为 [输入层维度, 隐藏层1维度, ..., 隐藏层n维度, 输出层维度] super().__init__() self.hidden_layer_num len(dims) - 2 # 计算隐藏层数量总层数减输入输出层 self.layers nn.Sequential() # 顺序容器用于堆叠网络层 # 循环添加隐藏层线性层 ReLU激活 for i in range(self.hidden_layer_num): self.layers.add_module(linear_str(i), nn.Linear(in_featuresdims[i], out_featuresdims[i1])) self.layers.add_module(relu_str(i), nn.ReLU()) self.layers.add_module(output, nn.Linear(in_featuresdims[-2], out_featuresdims[-1])) # 添加输出层无激活 def forward(self, x): 前向传播函数 参数: x (torch.Tensor): 输入张量 返回: torch.Tensor: 模型输出张量 return self.layers(x) def train(model : nn.Module, train_dataset : Dataset, valid_dataset : Dataset, loss_fn : nn.Module, optimizer : torch.optim.Optimizer, config : dict) - None: 模型训练主函数 包含训练循环、验证、TensorBoard 记录、早停判断及最佳模型保存 参数: model (nn.Module): 待训练的模型 train_dataset (Dataset): 训练数据集 valid_dataset (Dataset): 验证数据集 loss_fn (nn.Module): 损失函数 optimizer (torch.optim.Optimizer): 优化器 config (dict): 配置字典包含训练超参数、设备、保存路径等 # 创建数据加载器训练集打乱、验证集不打乱 train_dataloader DataLoader(train_dataset, batch_sizeconfig[train_batch_size], shuffleTrue, drop_lastTrue) eval_dataloader DataLoader(valid_dataset, batch_sizeconfig[eval_batch_size], shuffleFalse, drop_lastFalse) # 将模型移动到指定设备CPU/GPU model model.to(config[device]) # 训练主流程初始化 best_valid_loss 1e10 # 初始化最佳验证损失为极大值 no_improve_epochs 0 # 验证损失未改善的轮数计数 step 0 # 全局训练步数用于 TensorBoard 记录 for epoch in range(config[epochs]): model.train() # 将模型设置为训练模式启用 Dropout、BatchNorm 等训练专用层 train_loss [] # 记录当前 epoch 每个 batch 的训练损失 for batch_x, batch_y in train_dataloader: # 将 batch 数据移动到指定设备 batch_x batch_x.to(config[device]) batch_y batch_y.to(config[device]) # 前向传播计算模型预测和损失 preds model(batch_x) loss loss_fn(preds, batch_y) train_loss.append(loss) # TensorBoard 可视化记录每个 mini-batch 的损失 writer.add_scalar(minibatch loss, loss, step) # 反向传播计算梯度 loss.backward() # 优化器更新更新模型参数 optimizer.step() step 1 # 更新全局步数 # 梯度清零避免梯度累积 optimizer.zero_grad() # 计算当前 epoch 的平均训练损失 train_mean_loss sum(train_loss) / len(train_loss) # 在验证集上评估模型 valid_mean_loss, valid_mean_accuracy test(model, eval_dataloader, loss_fn, config) # 打印当前 epoch 的训练和验证指标 print(fepoch: {epoch}, train_loss: {train_mean_loss:.5f}, valid_loss: {valid_mean_loss:.5f}, valid_accuracy: {valid_mean_accuracy:.5f}) # TensorBoard 可视化记录训练和验证的 epoch 损失 writer.add_scalars(epoch loss, {train: train_mean_loss, valid: valid_mean_loss}, epoch) # 检查验证损失是否改善更新最佳模型 if valid_mean_loss best_valid_loss: best_valid_loss valid_mean_loss # 更新最佳验证损失 no_improve_epochs 0 # 重置未改善计数 torch.save(model.state_dict(), config[save_path]) # 保存当前最佳模型参数 else: no_improve_epochs 1 # 未改善计数加1 # 触发早停机制超过最大未改善轮数则停止训练 if no_improve_epochs config[max_no_improve_epochs]: print(fearly stop at epoch: {epoch}) break def test(model : nn.Module, data : Union[DataLoader, Dataset], loss_fn : nn.Module, config : dict) - list: 在验证集或测试集上评估模型性能 计算平均损失和平均准确率 参数: model (nn.Module): 待评估的模型 data (Union[DataLoader, Dataset]): 评估数据可为 DataLoader 或 Dataset loss_fn (nn.Module): 损失函数 config (dict): 配置字典包含设备、batch size 等 返回: list: [平均损失, 平均准确率] # 检查模型是否在指定设备上不在则移动 if next(iter(model.parameters())).device.type ! config[device]: model model.to(config[device]) model.eval() # 将模型设置为评估模式禁用 Dropout、BatchNorm 等训练专用层 # 根据输入类型创建 DataLoader if isinstance(data, DataLoader): dataloader data else: dataloader DataLoader(data, batch_sizeconfig[eval_batch_size], shuffleFalse, drop_lastFalse) loss [] # 记录每个 batch 的损失 accuracy [] # 记录每个 batch 的准确率 batch_num [] # 记录每个 batch 的样本数用于加权平均 # 禁用梯度计算节省内存和计算资源 with torch.no_grad(): for batch_x, batch_y in dataloader: # 将 batch 数据移动到指定设备 batch_x batch_x.to(config[device]) batch_y batch_y.to(config[device]) # 前向传播计算预测 preds model(batch_x) # 计算损失并记录 loss.append(loss_fn(preds, batch_y.to(config[device]))) # 计算准确率预测类别与真实类别比较取平均后记录 accuracy.append((torch.argmax(preds, dim-1).reshape(-1) batch_y).float().mean()) batch_num.append(len(batch_x)) # 记录当前 batch 的样本数 # 计算加权平均损失考虑不同 batch 大小 mean_loss sum([loss[i] * batch_num[i] for i in range(len(loss))]) / sum(batch_num) # 计算加权平均准确率 mean_accuracy sum([accuracy[i] * batch_num[i] for i in range(len(accuracy))]) / sum(batch_num) return mean_loss, mean_accuracy def same_seed(seed): 设置随机种子确保 PyTorch 实验结果的可复现性 固定 CPU、GPU单卡/多卡的随机种子并禁用 CuDNN 的非确定性算法 参数: seed (int): 随机种子值 torch.manual_seed(seed) # 固定 CPU 随机种子 torch.cuda.manual_seed(seed) # 固定当前 GPU 随机种子 torch.cuda.manual_seed_all(seed) # 固定所有 GPU 随机种子多卡场景 torch.backends.cudnn.deterministic True # 禁用 CuDNN 的非确定性算法 torch.backends.cudnn.benchmark False # 禁用 CuDNN 的自动优化避免非确定性 if __name__ __main__: do_training True # 训练标志True 执行训练False 仅加载模型测试 # 配置字典包含所有超参数、路径、设备等设置 config { seed: 0, # 随机种子 lr: 0.01, # 学习率 weight_decay: 0.001, # 权重衰减L2 正则化 train_batch_size: 32, # 训练 batch 大小 eval_batch_size: 32, # 评估 batch 大小 epochs: 1000, # 最大训练轮数 max_no_improve_epochs: 10, # 早停阈值验证损失连续未改善的最大轮数 valid_ratio: 0.1, # 验证集占训练集的比例 save_path: ./model/mlp.ckpt, # 模型保存路径 device: cuda if torch.cuda.is_available() else cpu, # 设备优先 GPU否则 CPU log_dir: ./log/ # TensorBoard 日志保存目录 } # 清理旧的 TensorBoard 日志目录若存在则删除所有内容 if os.path.isdir(config[log_dir]): os.system(frm -fr {config[log_dir] os.sep *}) writer SummaryWriter(./log/) # 创建 TensorBoard 写入器 # 设置随机种子保证可复现性 same_seed(config[seed]) # 检查模型保存目录是否存在不存在则创建 model_dir os.path.split(config[save_path])[0] if not os.path.isdir(model_dir): os.makedirs(model_dir) # 定义图像预处理变换转为张量 标准化均值0.5标准差0.5 transforms transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,)) ]) # 加载 MNIST 训练集和测试集若本地不存在则自动下载 train_dataset datasets.MNIST(./mnist, trainTrue, downloadTrue, transformtransforms) test_dataset datasets.MNIST(./mnist, trainFalse, downloadTrue, transformtransforms) # 拆分训练集为新的训练集和验证集 train_size int(len(train_dataset) * (1 -config[valid_ratio])) # 新训练集大小 valid_size len(train_dataset) - train_size # 验证集大小 train_dataset, valid_dataset random_split(train_dataset, [train_size, valid_size]) # 随机拆分 # 创建模型先 Flatten 将 28x28 图像展平为 784 维向量再接入自定义 MLP model nn.Sequential(nn.Flatten(), MLP([28*28, 128, 10])) # 定义损失函数交叉熵损失适用于多分类任务 loss_fn nn.CrossEntropyLoss(reductionmean) # 定义优化器随机梯度下降SGD包含学习率和权重衰减 optimizer SGD(model.parameters(), lrconfig[lr], weight_decayconfig[weight_decay]) # 执行训练流程 if do_training: train(model, train_dataset, valid_dataset, loss_fn, optimizer, config) torch.save(model.state_dict(), config[save_path]) # 训练结束后再次保存模型确保最终状态保存 # 加载最佳模型参数 model.load_state_dict(torch.load(config[save_path], weights_only True)) # 在测试集上评估最终模型性能 test_loss, test_accuracy test(model, test_dataset, loss_fn, config) print(ftest_loss: {test_loss:.5f}, test_accuracy: {test_accuracy:.5f})“断点续训”这是为了解决 AI 模型长周期训练的风险与灵活性问题形成的「存档 - 验档 - 读档续跑」完整流程检查点是存档、检查校验是验档、断点续训是读档接着跑。一、检查点Check Point常简称 ckpt它的本质是模型训练过程中对某一个时间点的完整训练状态做的全量、可恢复的快照存档。我们用马拉松做类比你可以把模型训练理解成一场长达几十、上百公里的马拉松模型训练不是一蹴而就的需要对着海量数据反复学习、调整自身的 “知识参数”整个过程短则数小时长则数天甚至数周是一个连续推进的过程。检查点就是这场马拉松里你每隔一段距离设置的「打卡存档点」。它不只是记录 “跑了多少公里”还会完整记录当前的配速节奏、体能状态、跑步姿势等所有能让你无缝接着跑的信息。对应到训练里一个完整的检查点会存档三类核心信息一是模型当前已经学到的全部知识模型参数二是训练的推进进度已经学完了多少轮完整数据三是训练的 “节奏状态”比如当前的学习速率、优化器的运行状态等确保后续能完全承接之前的训练节奏不会跑偏。常规训练中会按固定周期生成检查点同时会单独保留训练效果最好的那个存档避免意外覆盖。二、检查 Check Point检查点校验这是接续训练前的关键保障步骤本质是验证你要用来续训的检查点存档是否完整、可用、匹配当前的训练环境。就像你读游戏存档前要先确认这个存档没损坏、和你当前的游戏版本匹配不然读档会报错、闪退。这个校验环节核心就是确认存档文件有没有损坏、里面的核心训练信息是否完整、存档的模型结构和你当前要用的模型是否匹配、训练进度信息是否正常确保这个检查点能正常加载不会导致续训失败。三、断点续训下次接着训它的本质是基于校验通过的检查点存档在训练中断后无缝接续之前的进度继续完成剩余训练的操作。这里的 “断点”就是训练停止的节点 —— 不管是意外中断比如断电、程序报错、服务器宕机还是你主动暂停训练比如要关机、想调整训练参数、先验证下当前的训练效果只要有对应断点的、校验通过的检查点你就完全不用从头开始重新训练。加载检查点后模型和训练环境会被完全恢复到中断那一刻的状态你可以直接接着之前的进度继续训练完整承接之前所有的训练成果不会重复劳动也不会丢失之前模型学到的内容。 核心逻辑与价值三者是强绑定的配套流程检查点是基础检查校验是安全保障断点续训是最终目的。它的核心价值有两点一是抗风险避免长周期训练因为意外前功尽弃大幅节省时间和算力成本二是灵活性支持训练的随时暂停、重启也支持基于已有训练成果调整优化策略后继续训练不用从零起步。4.TensorBoard可视化工具TensorBoard是一款用于观察神经网络训练过程的可视化工具。首先需要安装tensorboard: pip install tensorboard然后在代码里记录tensorboard日志示例from torch.utils.tensorboard import SummaryWriter # 创建SummaryWriter对象 writer SummaryWriter(logs) # 记录计算图 model Linear(10, 5) x torch.rand(32, 10) writer.add_graph(model, x) # 开始训练模型 # ...... # 记录标量数据如loss、accuracy等 writer.add_scalar(train loss, loss, global_stepstep, walltimeNone) # 同时记录多个标量数据 writer.add_scalar(train, {loss: loss, accuracy: accuracy}, global_stepstep) # 记录直方图数据 (如模型参数、特征输入、中间层的输出、梯度等) writer.add_histogram(model weight, model.weight, global_stepstep, binstensorflow)有两种方式查看可视化图表1 基于vscode安装Tensorboard插件即可在vscode内查看tensorboard的可视化图表。2基于浏览器。a、在终端启动tensorboardtensorboard --logdirlogs --port6006b、打开浏览器访问地址 http://localhost:6006 即可查看当训练程序在远端server运行时可以在server启动tensorboard服务通过端口映射的方式访问。此时在服务器启动tensorboard服务的命令需要增加 --host 参数tensorboard --logdirlogs --host0.0.0.0 --port6006之后在本地终端进行端口映射ssh -L 6006:localhost:6006 usernameYOUR_SERVER_IP然后就可以通过在本地浏览器访问 http://localhost:6006 看到服务器上运行的TensorBoard界面。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2582187.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…