NUS-WIDE数据集实战:从原始文件到多模态数据集的完整预处理指南
1. NUS-WIDE数据集简介与下载指南NUS-WIDE是一个经典的多标签图像数据集由新加坡国立大学的研究团队构建。这个数据集包含了269,648个样本和81个类别每个样本可能同时属于多个类别这就是多标签的含义。数据集最初是为了研究网络图像检索而创建的现在已经成为多标签分类和多模态学习领域的重要基准数据集。我第一次接触这个数据集是在做一个跨模态检索项目时当时花了不少时间才搞清楚如何正确下载和处理原始文件。这里把我的经验完整分享给大家避免你们走弯路。数据集主要包含以下几类文件Groundtruth包含AllLabels和TrainTestLabels两个目录存放样本的类别标签Tags文本标签数据包括5018个原始标签和1000个精选标签Concept List81个类别的名称列表Image List样本对应的图像文件名Image Urls图像下载链接下载数据集时建议直接从官方渠道获取。虽然有些镜像站点可能提供打包下载但官方源能确保数据的完整性和最新性。下载后你会得到多个压缩包需要分别解压到同一个目录下。我习惯创建一个名为nuswide的目录来存放所有文件这样后续处理会更方便。2. 数据预处理环境准备在开始处理数据前我们需要准备好Python环境。我推荐使用Anaconda创建一个独立的环境conda create -n nuswide python3.8 conda activate nuswide pip install numpy scipy h5py pillow opencv-python处理NUS-WIDE数据集主要需要以下几个Python库numpy处理大型数组运算scipy用于.mat文件的读写h5py处理HDF5格式数据Pillow图像处理opencv-python图像读取和转换我遇到过的一个常见问题是图像读取失败。有些图片用OpenCV读取会返回None这时可以尝试改用Pillow读取。下面是我常用的图像读取函数import cv2 from PIL import Image import numpy as np def read_image(img_path): img cv2.imread(img_path) if img is None: # OpenCV读取失败 with Image.open(img_path) as img_f: img np.asarray(img_f) if img.ndim 2: # 灰度图转RGB img np.repeat(img[:, :, np.newaxis], 3, axis2) img cv2.cvtColor(img, cv2.COLOR_RGB2BGR) return img3. 标签数据处理实战标签数据是NUS-WIDE的核心部分存放在Groundtruth目录下。这里有两个子目录AllLabels和TrainTestLabels。我建议使用AllLabels因为它包含了所有样本的完整标签信息。处理标签数据的步骤如下首先读取Concepts81.txt获取类别名称和对应ID然后处理AllLabels下的81个标签文件最后将标签转换为numpy数组保存import os import numpy as np import scipy.io as sio # 读取类别名称 cls_id {} with open(Concepts81.txt, r) as f: for cid, line in enumerate(f): cls_id[line.strip()] cid # 初始化标签数组 N_SAMPLE 269648 N_CLASS len(cls_id) labels np.zeros((N_SAMPLE, N_CLASS), dtypenp.int8) # 处理每个标签文件 label_dir Groundtruth/AllLabels for cf in os.listdir(label_dir): c_name cf.split(.txt)[0].split(Labels_)[-1] cid cls_id[c_name] with open(os.path.join(label_dir, cf), r) as f: for sid, line in enumerate(f): if int(line) 0: labels[sid][cid] 1 # 保存结果 np.save(labels.npy, labels) sio.savemat(labels.mat, {labels: labels}, do_compressionTrue)这里有个需要注意的地方原始标签文件中可能存在极少数异常值。建议在处理前先检查一遍所有标签文件确保只包含0和1。4. 图像数据组织与管理NUS-WIDE的图像文件分布在多个子目录中这在实际使用时不太方便。我推荐将所有图像文件统一组织到一个目录下可以通过创建软链接来实现import os image_list ImageList/Imagelist.txt image_src Flickr # 原始图像目录 image_dest images # 目标目录 if not os.path.exists(image_dest): os.makedirs(image_dest) with open(image_list, r) as f: for sid, line in enumerate(f): line line.strip().replace(\\, /) # 统一路径分隔符 src_path os.path.join(image_src, line) dest_path os.path.join(image_dest, f{sid}.jpg) os.symlink(src_path, dest_path) # 创建软链接在处理图像时我发现数据集中有少量损坏的图像文件。我的建议是先尝试用不同库读取OpenCV/Pillow如果都失败可以记录下这些样本ID在后续处理中排除这些样本或使用占位图像5. 文本标签处理与多模态整合NUS-WIDE的文本标签存放在NUS_WID_Tags目录下主要有两种处理方式第一种方法从All_Tags.txt中提取1000个精选标签tag_id {} with open(NUS_WID_Tags/TagList1k.txt, r, encodingutf-8) as f: for tid, line in enumerate(f): tag_id[line.strip()] tid texts np.zeros((N_SAMPLE, len(tag_id)), dtypenp.int8) with open(NUS_WID_Tags/All_Tags.txt, r, encodingutf-8) as f: for sid, line in enumerate(f): tags line.split()[1:] for t in tags: if t in tag_id: texts[sid][tag_id[t]] 1第二种方法直接使用AllTags1k.txttexts np.zeros((N_SAMPLE, 1000), dtypenp.int8) with open(NUS_WID_Tags/AllTags1k.txt, r) as f: for sid, line in enumerate(f): texts[sid] list(map(int, line.split()))经过对比测试我发现第二种方法与DCMH论文中使用的数据更吻合建议采用这种方法。保存文本标签的方法与保存图像标签类似np.save(texts.npy, texts) sio.savemat(texts.mat, {texts: texts}, do_compressionTrue)6. 数据清洗与子集创建原始数据中存在一些需要清洗的情况完全没有任何标签的样本图像读取失败的样本标签不一致的重复样本我建议创建一个干净样本的索引列表clean_indices [] for i in range(N_SAMPLE): if labels[i].sum() 0: # 无任何标签 continue if texts[i].sum() 0: # 无任何文本标签 continue clean_indices.append(i) clean_indices np.array(clean_indices) np.save(clean_indices.npy, clean_indices)NUS-WIDE常使用两个子集TC-21样本数最多的21个类别TC-10样本数最多的10个类别创建子集的方法label_sums labels.sum(axis0) top21_classes np.argsort(label_sums)[-21:][::-1] top10_classes np.argsort(label_sums)[-10:][::-1] labels_21 labels[:, top21_classes] labels_10 labels[:, top10_classes]7. 数据验证与常见问题排查在处理过程中有几个常见问题需要注意重复样本数据集中有少量重复图像但标签可能不一致标签异常极少数样本的标签值可能不是0或1图像损坏少量图像文件可能无法正常读取验证数据一致性的方法# 检查标签一致性 for i in range(N_CLASS): assert set(np.unique(labels[:, i])) {0, 1} # 检查文本标签一致性 assert texts.shape (N_SAMPLE, 1000) assert set(np.unique(texts)) {0, 1} # 检查重复样本 image_ids set() with open(ImageList/Imagelist.txt, r) as f: for line in f: img_id line.strip().split(_)[-1].split(.)[0] if img_id in image_ids: print(f发现重复图像: {line.strip()}) image_ids.add(img_id)如果发现数据问题可以根据实际情况选择排除问题样本手动修正标签使用默认值替代8. 最终数据集的组织与保存完成所有预处理后我建议按以下结构组织最终数据集nuswide_processed/ ├── images/ # 所有图像文件或软链接 ├── labels.npy # 完整标签矩阵 ├── labels.mat # 兼容MATLAB的标签文件 ├── texts.npy # 文本标签矩阵 ├── texts.mat # 兼容MATLAB的文本标签 ├── clean_indices.npy # 干净样本索引 ├── labels_21.npy # TC-21子集标签 ├── labels_10.npy # TC-10子集标签 └── README.txt # 数据集说明保存为多种格式可以方便不同工具使用。例如.npy文件适合Python快速加载.mat文件兼容MATLABHDF5格式适合大型数据集。最后分享一个实用技巧在处理完成后可以使用以下命令创建压缩包方便分享和备份tar -czvf nuswide_processed.tar.gz nuswide_processed/预处理NUS-WIDE数据集确实需要耐心和细心但一旦完成这些准备工作后续的研究和实验就会顺利得多。我在多个项目中都使用过这个数据集发现前期投入的时间在后期会带来很大回报。特别是在处理多模态任务时良好的数据组织能让模型训练和评估过程更加高效。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2460466.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!