今天都做了什么?
2025年12月2025.12.25 上午用Gemini3提供的代码实现LeNet-5实现识别MNIST跟着上手推了一下LeNet、AlexNet、VGG的网络结构以及计算了常规的输出结果维度2025.12.25 下午1、复现AlexNet效果并不理想因为使用的是数据生成器生产的图。2、速读了AlexNet的论文。AlexNet的创新点①使用ReLU进行局部响应归一化。②使用的Dropout将每个隐藏神经元的输出以0.5的概率设为0。避免了过拟合。③首次实现将多块GPU并行2块GTX580每个GPU训练一半的神经元。遂在网上找了一个使用AlexNet对花朵进行分类的文章复现了一下。测试了一下准确率还挺高的。3、速读了VGG在kaggle的文章Kaggle--VGGNet-16根据kaggle的代码复现了效果中规中矩。2025.12.26上午1、重构了VGG没有使用预训练模型按照VGGNet-16 的模型框架构建从头开始训练。从4096的全连接层改到512层全连接基于flowers的数据集进行训练还是有点大。2、在训练过程中看书上的Inception结果搜了一下看到一个CSDN 名称叫Dream_Bri的博主又看了几篇他的文章。LeNet卷积神经网络模型AlexNet卷积神经网络ZFnet卷积神经网络GoogleNet 卷积神经网络没使用预训练模型训练的好慢啊使用了预训练模型去试发现效果也还行但是Gemini3 直接推荐使用ResNet基于 PyTorch 的迁移学习训练脚本。用预训练的 VGG16 网络对花卉数据集进行分类训练使用VGG16 预训练模型冻结卷积层仅训练分类层BATCH_SIZE 32 LEARNING_RATE 0.001EPOCHS 10特性原始 VGG16Demo Code (改进版)优势权重初始化随机或特定初始化预训练权重 (ImageNet)训练收敛极快精度更高特征提取层参与训练冻结 (Frozen)节省大量计算资源防止过拟合分类头结构4096 - 4096 - 10004096 -256- Num_Classes参数更少更适合小数据集优化器SGD MomentumAdam收敛速度更快调参更简单监控工具简单的 Print 输出tqdm 实时进度条用户体验更好监控更直观2025.12.26下午1、看了InceptionV1的模型结构2、去跑步了2025.12.27上午1、去郑州领郑马物料2025.12.27下午1、去新郑面试了一个AI agent的岗位底薪2k单子提成综合4k-6k不管吃住暂不考虑2025.12.28上午1、投了简历2、投了简历3、投了简历4、投了简历5、投了简历2025.12.28下午1、投了简历2、投了简历3、大概看了一下论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift。批量归一化通过减少内部协变量偏移来加速深度网络训练通过给神经网络中间层做 “批量标准化”解决了训练时的数据分布漂移问题让深度模型训练更快、更稳、效果更好。而且 BN 只加了两个参数 per 特征计算成本不高还能替代部分传统正则化手段后来成了深度学习里的 “标配” 技术之一。深度神经网络有很多层后面一层的输入是前面所有层处理后的结果。训练时前面层的参数一直在变导致后面层的输入数据分布也跟着 “变来变去”—— 这就是「内部协变量偏移」这种 “偏移” 会带来麻烦得用很小的学习率不然参数容易乱训练超慢初始化参数要小心翼翼不然模型容易 “饱和”比如 sigmoid 函数输入太大或太小梯度就没了学不动容易过拟合还得靠 Dropout 等技术补救。BN 的核心思路给中间层数据 “定规矩”既然输入分布老变那就主动给它 “归一化”让每一层的输入数据都变成「均值接近 0、方差接近 1」的样子类似把不同尺度的数据统一成一个标准。但直接归一化会丢了模型原本学到的特征所以 BN 还加了两个可学习的参数缩放因子 γ、偏移因子 β允许模型根据需求调整 —— 相当于 “先标准化再灵活微调”既稳定了分布又没丢特征。关键是BN 的标准化不是用整个训练集算均值方差太费时间而是用每次训练的 “小批量数据”比如一次练 32 张图片来估算 —— 这样既能实时适配数据又能跟着梯度一起反向传播优化不耽误训练效率。BN解决的问题学习率能调大很多不用怕参数乱飘训练速度飙升比如文档里 ImageNet 实验用 1/14 的训练步数就达到了原来的精度不用小心翼翼初始化参数容错率变高能直接用 sigmoid 这类容易 “饱和” 的激活函数以前用这些函数训练容易卡住现在 BN 稳住了输入分布梯度不会消失自带正则化效果很多时候不用 Dropout 也能防过拟合还能减少权重正则化的强度模型最终效果更好文档里用 BN 的模型在 ImageNet 上的错误率比之前的最好结果还低甚至超过了人类标注的精度。2025.12.29上午1、看完了批量归一化的论文2、大概看了看论文Rethinking the Inception Architecture for Computer Vision重构计算机视觉中的Inception架构通过 “拆大卷积、先降维再聚合、平衡深度宽度、加标签平滑” 等技巧在不浪费算力的前提下把 Inception 模型的分类 accuracy 拉到新高度还给出了可复用的设计原则让后续模型升级有章可循 —— 核心就是 “聪明用算力不做无用功”。1大卷积核 “拆小”省算力不丢效果比如 5×5 卷积费算力就拆成两个 3×3 卷积7×7 卷积拆成三个 3×3 卷积 —— 这样计算量能省 28% 以上还能保持同样的 “感知范围”相当于原来能看到的图像区域没变。更绝的是 “不对称拆分”3×3 卷积拆成 1×3 3×1 卷积算力直接省 33%比拆成两个 2×2 还划算。2优化特征图缩小不丢信息还省钱原来缩小特征图比如从 35×35 变成 17×17要么会丢信息要么费算力。新方法是 “并行处理”一边用卷积步长 2缩小一边用池化步长 2缩小最后把结果拼起来 —— 既避免了信息瓶颈计算量还省了不少。3辅助分类器不是帮 “早训练”是帮 “防过拟合”之前以为中间加辅助分类器相当于训练中的 “小考官”是为了帮深层网络早点收敛实际发现它是 “正则器”—— 能让模型不盲目自信减少过拟合比如给辅助分类器加 BatchNorm效果还能再提一点。4标签平滑LSR让模型 “不钻牛角尖”原来训练时模型会拼命把 “正确标签” 的概率拉到 100%容易过拟合比如只记训练数据不会泛化。标签平滑是给正确标签 “降点权重”比如从 1.0 变成 0.9剩下的 0.1 分给所有其他标签 —— 让模型不那么绝对泛化能力更强ImageNet 上能提 0.2% 的 accuracy。5BatchNorm 加持之前的好技术接着用把之前提出的 BatchNorm批量归一化加进去尤其是辅助分类器里能让训练更稳、更快还能当正则器用。3、改了.cache的默认路径重装Anaconda需要做的事情4、复现了基于Inception V1的Flowers2025.12.29下午1、将单图预测改为多图同时预测。2、看了ResNet模型看了Youtube的视频Leaf Disease Classification Using PyTorch这个博主分享了Tez库Tez比tqdm好用多了。3、在Kaggle看了Plant Disease Classification - ResNet- 99.2%4、大致看了知网的文章残差网络研究综述里面提到ResNet涉及到行人识别我看了一下引用的文章行人重识别的分步学习方法单样本视频行人重识别One-Shot Video Re-ID即每个身份仅 1 个标注轨迹tracklet的条件下利用无标注轨迹提升模型性能。5、实现了植物病害分类 - ResNet。6、ResNet网络结构实现了基于ResNet的预训练模型对flowers数据集进行分类。特点残差学习通过优化HighWay能训练超深网络但训练速度慢且无法通过加深网络显著提升性能用捷径连接取代网关单元保留原始信息、减少参数可加速超深网络训练、提升准确率避免梯度消失 / 爆炸。2025.12.30上午1、了解了一下DenseNet传统的卷积神经网络如 ResNet的层是串联的每一层只接收来自前一层的信息。ResNet 通过 “跳跃连接”Skip Connection让信息可以跨层流动但本质上还是一种 “加法” 操作。DenseNet 则走得更远它提出了一种密集连接的模式每个层都与前面所有层直接相连。每个层的输入是前面所有层输出的拼接concatenation。每个层只学习一个很小的、独特的特征图集合。2、大致看了一下MobileNet。神经架构搜索 (Neural Architecture Search, NAS)改进的激活函数 (h-swish)特点利用 NAS 技术自动搜索最优的网络结构包括每个块的卷积核大小、扩展因子等。引入了h-swish激活函数它是 swish 函数的近似版本在保持类似性能的同时计算更快。进一步优化了网络结构如在早期层使用更小的卷积核。3、看了一下迁移学习使用在A任务上预训练好的模型作为特征提取器提取目标任务数据的特征然后用这些特征训练一个B任务的分类器或回归器。步骤加载预训练模型如 ResNet、VGG、MobileNet 等。冻结预训练模型的大部分层通常是卷积层只保留最后几层或全连接层。将目标任务的数据输入预训练模型提取特征。用提取的特征训练一个新的分类器如 SVM、逻辑回归或新的全连接层。4、看了几种改进的生成对抗网络模型深度卷积生成对抗网络 Deep Convolutional Generative Adversarial Network基于能量的生成对抗网络Energy-based Generative Adversarial Network)Wasserstein Generative Adversarial Network5、大致看了一下强化学习和深度强化学习6、规划了大致完成毕设的路线基于背景抑制与表观特征融合的行人重识别模型设计与实现2025.12.30下午1、看了目标检测常用的深度学习网络结构IoU两个图形面积的交集和并集的比值目标检测---IOU计算详细解读⚡️缺点如果只使用IoU交并比来计算目标框损失的话会有以下问题预测框与真实框之间不相交的时候如果|A∩B|0IOU0无法进行梯度计算相同的IOU反映不出实际预测框与真实框之间的情况虽然这三个框的IoU值相等但是预测框与真实框之间的相对位置却完全不一样非极大值抑制Non-Maximum Suppression找到局部极大值并筛除抑制邻域内其余的值。2、YOLOYou Only Look OnceYOLO的泛化能力很强在YOLOYou Only Look Once模型中端到端指的是将输入数据如图像直接映射到输出结果如目标检测框和类别通过一个统一的深度学习模型进行处理。端到端End-to-End架构是指在机器学习和深度学习中使用一个单一的模型直接将原始输入如传感器数据、图像等映射到最终输出如控制指令、分类结果等而不需要中间的手动特征提取或多个处理步骤。这种方法简化了模型的设计和训练过程通常能够提高效率和性能。3、大概看了一下R-CNN的思路。R-CNN利用候选区域与卷积神经网络做目标定位。对输入图像使用选择性搜索来选取多个高质量的提议区域 (Uijlings et al., 2013)。这些提议区域通常是在多个尺度下选取的并具有不同的形状和大小。每个提议区域都将被标注类别和真实边界框选择一个预训练的卷积神经网络并将其在输出层之前截断。将每个提议区域变形为网络需要的输入尺寸并通过前向传播输出抽取的提议区域特征将每个提议区域的特征连同其标注的类别作为一个样本。训练多个支持向量机对目标分类其中每个支持向量机用来判断样本是否属于某一个类别将每个提议区域的特征连同其标注的边界框作为一个样本训练线性回归模型来预测真实边界框。尽管R-CNN模型通过预训练的卷积神经网络有效地抽取了图像特征但它的速度很慢。 想象一下我们可能从一张图像中选出上千个提议区域这需要上千次的卷积神经网络的前向传播来执行目标检测。 这种庞大的计算量使得R-CNN在现实世界中难以被广泛应用。4、大概看了Fast R-CNN、Faster R-CNNFast R-CNN与R-CNN相比Fast R-CNN用来提取特征的卷积神经网络的输入是整个图像而不是各个提议区域。此外这个网络通常会参与训练。设输入为一张图像将卷积神经网络的输出的形状记为 假设选择性搜索生成了 个提议区域。这些形状各异的提议区域在卷积神经网络的输出上分别标出了形状各异的兴趣区域。然后这些感兴趣的区域需要进一步抽取出形状相同的特征以便于连结后输出。为了实现这一目标Fast R-CNN引入了兴趣区域汇聚层RoI pooling将卷积神经网络的输出和提议区域作为输入输出连结后的各个提议区域抽取的特征形状为 通过全连接层将输出形状变换为 其中超参数 取决于模型设计预测 个提议区域中每个区域的类别和边界框。更具体地说在预测类别和边界框时将全连接层的输出分别转换为形状为 是类别的数量的输出和形状为 的输出。其中预测类别时使用softmax回归。Faster R-CNN与Fast R-CNN相比Faster R-CNN只将生成提议区域的方法从选择性搜索改为了区域提议网络模型的其余部分保持不变。具体来说区域提议网络的计算步骤如下使用填充为1的 卷积层变换卷积神经网络的输出并将输出通道数记为 。这样卷积神经网络为图像抽取的特征图中的每个单元均得到一个长度为 的新特征。以特征图的每个像素为中心生成多个不同大小和宽高比的锚框并标注它们。使用锚框中心单元长度为 的特征分别预测该锚框的二元类别含目标还是背景和边界框。使用非极大值抑制从预测类别为目标的预测边界框中移除相似的结果。最终输出的预测边界框即是兴趣区域汇聚层所需的提议区域。值得一提的是区域提议网络作为Faster R-CNN模型的一部分是和整个模型一起训练得到的。 换句话说Faster R-CNN的目标函数不仅包括目标检测中的类别和边界框预测还包括区域提议网络中锚框的二元类别和边界框预测。 作为端到端训练的结果区域提议网络能够学习到如何生成高质量的提议区域从而在减少了从数据中学习的提议区域的数量的情况下仍保持目标检测的精度。5 、F1-Score是精确率Precision和召回率Recall的调和平均数用来综合评价模型的整体表现公式如下精确率Precision模型预测为 “正例” 的结果中真正是正例的比例 → 衡量 “预测准不准”6、召回率Recall所有真实的正例中被模型找出来的比例 → 衡量 “找得全不全”7、为毕设做准备。先跑通了一个标准的Re-ID流程。计划书如下”基于背景抑制与表观特征融合的行人重识别模型设计与实现“计划书2025.12.31上午帮室友调了电脑下午收拾东西出去玩了2026年1月2026.1.1去椰梦长廊2026.1.2看三亚千古情2026.1.3亚龙湾2026.1.4返程2026.1.5缓了缓帮室友调代码2026.1.6帮室友调代码2026.1.7帮室友调代码2026.1.8帮室友调代码2026.1.9上午看了基于注意力机制行人重识别REID数据集汇总The Awesome Person Re-Identification Datasets数据集汇总行人重识别数据集汇总Market-1501谷歌下载 参考这个博主gmHappyKaggle下载链接market_1501夸克网盘下载链接market_1501Market-1501 是行人重识别Re-ID领域经典的大规模公开基准数据集由清华大学团队于 2015 年发布采集于清华大学校园超市前用于推动跨摄像头行人检索算法的研发与评测。核心优势学界标准基准数据规范、标注清晰适合快速验证模型基础性能与消融实验。关键指标6 个摄像头5 高清 1 低清1501 个行人32668 张图像训练 / 测试 / 查询分别为 751/750 人、12936/19732/3368 张图。适配点背景以校园为主复杂度适中适合初期调试背景抑制与特征融合模块低清摄像头数据可验证模型对分辨率变化的适应性。缺点场景相对单一建议仅用于基准对比不单独作为主实验数据。CUHK03数据集下载 密码38ffKaggle下载CUHK03夸克网盘CUHK03CUHK03是香港中文大学CUHK校园内的 5 对不同视角的摄像头也是第一个大到足以进行深度学习的人物再识别数据集。它提供了从可变形零件模型(DPM)中检测到的边界框和手动标记。对于这个数据集人员检测质量相对较好。核心优势提供人工标注与机器检测两种边界框适合研究背景抑制中的行人定位精度影响样本量适中适合快速迭代与小样本实验。关键指标2 个摄像头1360 个行人13164 张图像训练 / 测试分别为 767/593 人平均每人 9.6 张训练图。适配点两种标注方式可用于对比背景抑制对检测误差的敏感度图像分辨率较高适合精细的表观特征提取与融合实验。缺点摄像头数量少跨视角背景差异有限建议用于专项实验而非整体评估。看了MSMT17北大的行人数据集下载需要先签订一个协议书签了给他们发了邮件还没回。其他渠道我也看了不太好。MSMT17Multi-Scene Multi-Time2017多场景多时段下载链接1modelscope夸克网盘MSMT17核心优势多场景、多光照、大样本背景干扰丰富适配背景抑制算法的强鲁棒性验证表观变化姿态、遮挡、季节多样适合特征融合的有效性测试。关键指标12 个摄像头含高低清4101 个行人126441 张图像训练 / 测试 / 查询分别为 3262/839 人、82161/44280/11659 张图。适配点跨摄像头背景差异大能充分验证背景抑制模块多季节、多光照下的表观变化可检验特征融合的稳定性。2026.1.9下午1、研究了MSMT17数据集下载2、复现了基于CUHK03数据集的行人重识别PersonReID-main3、准备了看了考研复试的视频2026.1.10上午1、看了几篇关于“基于背景抑制与表观特征融合的行人重识别模型”的论文2、汇总了一下数据集3、AI辅助读论文1、请提炼一下这篇文章的核心观点。2、这篇文章的主题是什么3、作者在哪些方面提供了新颖的见解4、这篇文章主要采用了什么研究方法5、文献中的数据支持了哪些观点6、作者使用了哪些重要论据来支持观点7、这篇文章对该领域有何贡献8、能帮我找出文献的论文陈述吗9、这篇文章的主要结论是什么2026.1.10下午1、准备了组会的 内容2、数据集汇总夸克网盘3、缓缓期间在忙其他事情2026.1.17下午1、下午查找文献找到了一个关于可视化搜索的网站2、准备周日明天需要讲的ppt2026.1.19上午1、复现并完善结合前景分割的多特征融合行人重识别2、文章提出了一种叫做MFSNet结合前景分割的多特征融合网络的方法该网络基于ResNet50骨干网络主要由以下三个创新模块组成模块内容前景分割模块通过重识别任务来约束缺陷膜预测既能去除背景又能保持前景图像的平滑性和缺陷避免因“硬切割”导致的特征丢失。多粒度特征引导分支提取不同粒度从粗到细的特征多尺度特征融合分支提出了一种多尺度非局部拓扑Multi-scale Non-local方法将不同尺度的特征映射到统一空间进行融合增强了特征的表达能力。3.损失函数Loss Function模型采用了联合损失函数进行结果训练包含三部分前景分割损失优化提高了准确性。难样本采样三元组损失拉近同类距离推远异类距离。Softmax 交叉损失用于分类任务。4.准确率Market-1501一级准确率96.8%mAP平均精度均值91.5%DukeMTMC-reID一级准确率91.5%mAP82.3%MSMT17一级准确率83.9%mAP63.8%2026.1.19下午1、在几个数据集上运行对比了一下结果在Market-1501数据集上运行都需要2小时太慢了2、先计划先把模型框架整理好把可视化图在Market-1501数据集上运行一遍全部弄好再去泛化其他数据集。2026.1.20上午1、我现在做了一个模型叫reid_foreground_fusion 基于结合前景分割的多特征融合行人重识别我通过Gemini3做了一个项目训练结果还不是很好。2、基于MFSNet的mAP太低我参考论文添加了MFGB MFFB FSMMFSNet结果还行3、几个模型都运行了一遍效果还不是很好。准备不复现模型了准备自己搞一个。2026.1.211、基于谷歌的Gemini3我想做一个ReID_AMGN_BS。AMGN基于注意力的多粒度网络BackgroundSuppressionLoss基于高斯先验的模型mAP还可以87了2026.1.221、修复模型添加特征归一化 (Feature Normalization) —— 最关键的缺失步骤2、调整 Re-ranking 参数 (Aggressive Parameters)3、 查询扩展 (Query Expansion, QE)4、调整 DBA (Database Augmentation / Gallery Augmentation)。2026.1.231、增大输入图像分辨率ReID 任务中图像分辨率越高细节如鞋子、背包纹理越清晰。将分辨率提升到 **384 x 128** 是刷分的常规手段增加之后模型训练很慢eval模块在CPU上运行太慢了。2、引入 GeM 池化 (Generalized Mean Pooling)3、换用余弦退火学习率 (Cosine Annealing LR)修改完模型mAP最好能上90了2026.1.24上午1、修复了“热身 (Warmup)”缺失的问题问题描述 配置文件 configs/amgn_baseline.yml 中定义了 WARMUP_EPOCHS: 10但在 train.py 代码中直接使用了 CosineAnnealingLR完全忽略了 Warmup 配置。 这意味着模型一开始就用较大的学习率0.00035训练可能会导致训练初期梯度震荡影响最终收敛效果。修复方案需要在 train.py 中自定义一个带有 Warmup 功能的 Scheduler。2、增强 Triplet Loss 的约束力问题描述 在 train.py 的训练循环中只对全局特征 (feats[0]) 计算了 Triplet Loss l_tri loss_tri(feats[0], labels)。而 AMGN Head 提取了三个特征全局 (feats[0])、上半身 (feats[1])、下半身 (feats[2])。 **局部分支如果不加 Triplet Loss 约束可能学不到这就具有判别力的特征**导致“表观特征融合”的效果打折。**修复方案** 让局部分支也参与度量学习。修改 train.py 中的 Loss 计算部分经过两天的修修补补再修改re_rank之后mAP还蛮可以的。2026.1.251、IBN 模块设计**手动定义了 IBN 类通过 torch.split 将特征图通道一分为二分别通过具有仿射参数的 InstanceNorm2d 和标准的 BatchNorm2d最后通过 torch.cat 融合。这种设计允许网络同时学习**风格不变特征**通过 IN这对跨摄像头检索至关重要和**内容判别特征**通过 BN。- **IBN-a 架构策略**遵循 ResNet-IBN 的标准设计Pan et al., CVPR 2018仅替换了 ResNet50 浅层Layer 1-3中 Bottleneck 结构的第一个 BN 层。Layer 4 保持不变以保留用于身份分类的高级语义信息。- **参数热启动 (Warm Start)**为了最大化预训练权重的效益在替换层时执行了“参数切片迁移”。将 ImageNet 预训练的 BN 参数切分并初始化给新的 IBN 模块这使得模型在训练初期更加稳定能够更快收敛。2、引入 Center Loss (最显著的提分点)目前的 Loss 组合是 CrossEntropy Triplet BG_Loss。在 ReID 中加入 **Center Loss** 通常能稳定提升 1%~2% 的 mAP因为它能显著减小类内距离。- 原理Triplet Loss 拉大类间距离Center Loss 聚拢类内特征。- 修改建议1. 新建 losses/center_loss.py。2. 在 train.py 中初始化 CenterLoss注意 **Center Loss 的参数需要定义一个新的优化器**通常学习率要大一些如 0.5。2026.1.26我将代码添加到Github新建了一个项目BSFF-ReID理论框架AMGN IBN 主干集成 ResNet50-IBN-a 以增强领域不变性和对风格/背景变化的鲁棒性。架构采用 AMGN基于注意力的多粒度网络结构提取全局和部分级头部-肩部/上半身特征。核心模块显式背景抑制空间注意力引入了一个轻量级的空间注意力模块来生成软掩码重新加权特征图以专注于人体。物理引导损失设计了一个自定义背景抑制损失基于高斯先验以明确地惩罚背景区域中的高激活值。高级特征融合融合策略将全局特征和零件特征连接成统一的表示6144 维。BNNeck 优化通过添加专用的 fusion_classifier 和批量归一化层解决了“融合训练”问题确保融合特征在训练期间具有区分性。“技巧包”集成损失函数交叉熵标签平滑三元组损失困难挖掘中心损失。数据增强随机擦除 颜色抖动亮度/对比度/饱和度。后处理“皇家同花顺”- TTA测试时增强翻转融合。DBA数据库增强图库自我完善。AQE平均查询扩展向量化实现。2026.1.271、读了一些文献帮别人复现了代码。解决了中文用户名创建虚拟环境的问题2、我感觉我的模型还能再优化一点。3、 换个新一点的模型试试2026年5月2026.5.6经过最近两天搬迁服务器已经成功运行market1501数据集现在就出现DukeMTMC数据集出现的问题进行过程记载如果要复现情况需要执行的requirements.txtpip install -r requirements.txt因为服务器的torch问题需要降低numpy版本pip install numpy2.0.0 --force-reinstall因为临时挂在所有在每次开机需要mkdir -p /dev/shm/deepwrh_duke cp -r /public/home/deepwrh/ViTBSHF/data/DukeMTMC/* /dev/shm/deepwrh_duke/使用nohup后台挂起防止断网导致训练终端将训练任务提交到系统后台并将日志重定向输出到文件中。即使关闭电脑或断网服务器依然会静默计算。nohup python tools/train.py \ --config_file configs/market_hbf_vit.yml \ --resume /public/home/deeplzy/ViTBSHF/logs/market1501/test1/vit_base_patch16_224_TransReID_latest.pth \ nohup_train.log 21 监控方式任务提交后你可以随时重新连上服务器输入以下代码实时查看最新的训练打印信息tail -f nohup_train.log2026.5.6开机切换目录代码cd /public/home/deeplzy/ViTBSHF临时挂载代码# 1. 在内存盘中创建一个临时数据文件夹 mkdir -p /dev/shm/deeplzy_market # 2. 将挂载在公共盘的 Market 数据集全量拷贝到内存盘中 (速度很快) cp -r /public/home/deeplzy/ViTBSHF/data/Market/* /dev/shm/deeplzy_market/短点重连代码nohup python tools/train.py \ --config_file configs/market_hbf_vit.yml \ --resume /public/home/deeplzy/ViTBSHF/logs/market/test1/vit_base_patch16_224_TransReID_latest.pth \ /public/home/deeplzy/ViTBSHF/logs/market/test1/train_log.txt 21 nohup即使用户退出终端或断开 SSH 连接该进程仍会继续运行。python tools/train.py:使用 Python 解释器运行位于tools/目录下的训练脚本train.py。--config_file configs/market_hbf_vit.yml指定训练所用的配置文件路径。--resume .../vit_base_patch16_224_TransReID_latest.pth:表示从指定的预训练模型或检查点checkpoint恢复训练。路径指向一个.pth文件 /public/home/.../train_log.txt:将标准输出stdout重定向到指定的日志文件train_log.txt。所有print()输出或脚本正常日志都会写入此文件。21将标准错误stderr也重定向到标准输出即同样写入train_log.txt。将整个命令放入后台运行立即释放终端允许用户继续执行其他命令。tail -f /public/home/deeplzy/ViTBSHF/logs/market/test1/train_log.txt持续跟踪并打印文件末尾新增的内容删除指定路径代码rm /public/home/deeplzy/ViTBSHF/nohup_train.log
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2592482.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!