Python爬虫赋能丹青识画:自动化构建艺术图像数据集

news2026/3/31 15:27:05
Python爬虫赋能丹青识画自动化构建艺术图像数据集每次看到那些能精准识别画作风格、作者甚至创作年代的AI应用你是不是也好奇它们是怎么“学”出来的答案很简单喂给它海量的、高质量的“教材”——也就是艺术图像数据集。但对于我们普通人来说上哪儿去找成千上万张标注好作者、年代、风格的高清名画呢手动下载那得下到猴年马月。今天咱们就来聊聊怎么用Python爬虫这个“自动化收割机”从全球各大艺术博物馆和在线画廊的公开资源里高效、合规地采集这些珍贵的艺术图像和元数据为你的“丹青识画”系统打造一个源源不断的专属数据粮仓。1. 为什么需要自动化构建艺术数据集想象一下你想训练一个AI来区分文艺复兴时期的油画和印象派的作品。如果手头只有几十张图片AI可能连梵高和莫奈都分不清。模型训练尤其是深度学习本质上是一个“大数据喂出来”的过程。数据量越大、质量越高、标注越准确模型才可能越聪明、越精准。手动构建这样一个数据集面临几个头疼的问题来源分散画作散落在上百个网站、格式不一图片尺寸、命名混乱、信息缺失有图没作者有作者没年代。而Python爬虫恰恰能自动化地解决这些痛点它像一只不知疲倦的蜘蛛按照我们设定的规则在互联网的艺术宝库中穿梭将散落的珍珠串成项链。更重要的是许多顶级博物馆如纽约大都会艺术博物馆、荷兰国立博物馆等都提供了丰富的开放获取Open Access数字藏品。这意味着我们可以合法、合规地获取并使用这些高质量资源用于研究和非商业目的这为我们的数据采集打开了绿灯。2. 目标网站分析与爬虫策略制定在动手写代码之前先别急着“爬”。好的侦察是成功的一半。我们需要先选定目标并摸清它的“防守”情况。2.1 选择合适的艺术数据源不是所有网站都适合爬取。优先选择那些提供清晰API接口或网页结构规整的开放资源平台。这里有几个优质起点博物馆开放数据平台例如纽约大都会艺术博物馆的The Met Collection API提供了海量藏品的结构化数据包括图片URL、作者、年代、分类等是理想的数据源。专业艺术图库网站如WikiArt收录了海量画作信息齐全但需要注意其使用条款和反爬机制。学术与文化机构一些大学或文化机构的数字图书馆也是宝库。行动前务必检查访问目标网站的robots.txt文件通常在网站根目录如https://目标网站.com/robots.txt尊重其中关于爬虫行为的规则避免对服务器造成不必要的压力。2.2 分析网页结构与数据定位确定目标后用浏览器开发者工具F12是我们的主要武器。我们需要找到图片和元数据在网页HTML代码中的位置。图片链接找到高清原图的真实URL。通常不是页面上直接显示的小图而是隐藏在src、data-src属性或通过JavaScript加载的链接里。元数据作者、作品名、创作年代、艺术风格、材质、尺寸等信息。它们可能藏在meta标签、特定的div或span的class或id中。翻页逻辑如何从一个作品列表页跳转到下一页是简单的URL参数如?page2还是通过JavaScript触发的“加载更多”按钮以爬取一个模拟的艺术列表页为例我们分析其结构!-- 假设的艺术作品列表项结构 -- div classartwork-item a href/artwork/123 img srcthumbnail.jpg>pip install requests beautifulsoup4然后编写一个最基础的函数来获取和解析网页。import requests from bs4 import BeautifulSoup import time def fetch_page(url): 发送HTTP请求获取网页内容 headers { User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36 } try: response requests.get(url, headersheaders, timeout10) response.raise_for_status() # 检查请求是否成功 response.encoding response.apparent_encoding return response.text except requests.RequestException as e: print(f请求失败: {url}, 错误: {e}) return None def parse_artwork_list(html): 解析作品列表页提取每个作品详情页的链接 if not html: return [] soup BeautifulSoup(html, html.parser) artwork_links [] # 根据之前分析的HTML结构定位 for item in soup.select(.artwork-item a[href]): link item[href] # 补全为完整URL如果是相对链接 if link.startswith(/): link https://目标网站.com link artwork_links.append(link) return artwork_links # 使用示例 list_url https://目标网站.com/collection?page1 html_content fetch_page(list_url) if html_content: detail_urls parse_artwork_list(html_content) print(f本页找到 {len(detail_urls)} 个作品详情链接。) time.sleep(2) # 礼貌性延迟避免请求过快3.2 解析详情页与数据提取获取到单个作品的详情页链接后我们需要深入其中提取最核心的图片和元数据。def parse_artwork_detail(html, base_url): 解析作品详情页提取图片URL和元数据 soup BeautifulSoup(html, html.parser) data {} # 1. 提取高清图片URL (假设存储在data-fullsize属性中) img_tag soup.select_one(.artwork-item img[data-fullsize]) if img_tag and img_tag.get(data-fullsize): data[image_url] img_tag[data-fullsize] else: # 备选方案查找其他可能的高清图链接 data[image_url] None # 2. 提取元数据 data[title] soup.select_one(.title).get_text(stripTrue) if soup.select_one(.title) else 未知 data[artist] soup.select_one(.artist).get_text(stripTrue) if soup.select_one(.artist) else 未知 data[year] soup.select_one(.year).get_text(stripTrue) if soup.select_one(.year) else 未知 data[style] soup.select_one(.style).get_text(stripTrue) if soup.select_one(.style) else 未知 # 可以继续提取更多字段如材质、尺寸、描述等 data[description] soup.select_one(.description).get_text(stripTrue, separator ) if soup.select_one(.description) else # 3. 补全图片URL如果是相对路径 if data[image_url] and data[image_url].startswith(/): data[image_url] base_url data[image_url] return data # 模拟处理一个详情页 detail_url detail_urls[0] if detail_urls else None if detail_url: detail_html fetch_page(detail_url) if detail_html: artwork_data parse_artwork_detail(detail_html, https://目标网站.com) print(f提取到数据: {artwork_data})3.3 应对反爬虫策略直接按上面的代码猛跑很可能很快就被网站屏蔽。我们需要一些“礼貌”和“伪装”技巧。设置请求头Headers模拟真实浏览器访问如上文代码中的User-Agent。添加延迟Delay在请求之间使用time.sleep()避免高频访问。这是最基本的道德和策略。处理Cookie和Session对于需要登录或保持状态的网站使用requests.Session()。使用代理IPProxies当单个IP被封锁时可以考虑使用代理池。但对于公开的博物馆资源通常合理延迟就足够了。解析动态加载内容如果数据是通过JavaScript动态加载的如滚动加载BeautifulSoup无法直接获取。这时需要考虑使用Selenium或Playwright这类自动化测试工具来模拟浏览器行为或者更优地寻找网站提供的官方API接口。3.4 数据清洗与结构化存储爬下来的数据往往是粗糙的需要清洗。同时为了后续使用方便我们需要结构化地存储它们。数据清洗去除元数据中的多余空格、换行符统一日期格式如“c. 1889”统一为“1889”对“风格”等字段进行标准化分类如将“Post-Impressionism”和“后印象派”统一。结构化存储通常采用“图片文件元数据数据库”的方式。图片存储根据artist或style创建文件夹分类保存图片并用有意义的文件名如Vincent_van_Gogh_The_Starry_Night.jpg重命名。元数据存储使用SQLite轻量或MySQL更规范数据库或者简单的CSV/JSON文件。数据库表可以设计为字段名类型说明idINT PRIMARY KEY自增主键titleTEXT作品名称artistTEXT作者yearTEXT创作年代styleTEXT艺术风格image_local_pathTEXT本地图片路径image_source_urlTEXT原图URLdescriptionTEXT作品描述......其他字段以下是存储环节的示例代码import os import csv import sqlite3 from urllib.parse import urlparse def download_image(img_url, save_dir, filename): 下载图片到本地 if not img_url: return None try: response requests.get(img_url, headersheaders, timeout30) if response.status_code 200: filepath os.path.join(save_dir, filename) with open(filepath, wb) as f: f.write(response.content) print(f图片已保存: {filepath}) return filepath except Exception as e: print(f下载图片失败 {img_url}: {e}) return None def save_to_csv(data_list, csv_filenameart_data.csv): 将数据列表保存到CSV文件 if not data_list: return keys data_list[0].keys() with open(csv_filename, w, newline, encodingutf-8-sig) as f: writer csv.DictWriter(f, fieldnameskeys) writer.writeheader() writer.writerows(data_list) print(f数据已保存至 {csv_filename}) def save_to_sqlite(data_list, db_nameart_dataset.db): 将数据保存到SQLite数据库 conn sqlite3.connect(db_name) cursor conn.cursor() # 创建表如果不存在 cursor.execute( CREATE TABLE IF NOT EXISTS artworks ( id INTEGER PRIMARY KEY AUTOINCREMENT, title TEXT, artist TEXT, year TEXT, style TEXT, image_path TEXT, source_url TEXT, description TEXT ) ) # 插入数据 for data in data_list: cursor.execute( INSERT INTO artworks (title, artist, year, style, image_path, source_url, description) VALUES (?, ?, ?, ?, ?, ?, ?) , (data.get(title), data.get(artist), data.get(year), data.get(style), data.get(image_path), data.get(image_url), data.get(description))) conn.commit() conn.close() print(f数据已保存至数据库 {db_name}) # 主流程整合示例 def main_crawler(start_url, max_pages5): all_artwork_data [] base_url https://目标网站.com image_save_dir downloaded_images os.makedirs(image_save_dir, exist_okTrue) for page in range(1, max_pages 1): print(f正在爬取第 {page} 页...) list_url f{start_url}?page{page} html fetch_page(list_url) if not html: break detail_urls parse_artwork_list(html) for detail_url in detail_urls: detail_html fetch_page(detail_url) if not detail_html: continue data parse_artwork_detail(detail_html, base_url) # 下载图片 if data.get(image_url): # 生成文件名例如梵高_星空.jpg filename f{data[artist]}_{data[title]}.jpg.replace(/, _).replace(\\, _) local_path download_image(data[image_url], image_save_dir, filename) data[image_path] local_path all_artwork_data.append(data) time.sleep(1) # 详情页访问延迟 time.sleep(3) # 列表页翻页延迟 print(f第 {page} 页完成累计收集 {len(all_artwork_data)} 条数据。) # 保存数据 if all_artwork_data: save_to_csv(all_artwork_data) save_to_sqlite(all_artwork_data) print(爬虫任务完成) else: print(未收集到任何数据。) # 运行爬虫请替换为真实的、允许爬取的起始URL # main_crawler(https://目标网站.com/collection, max_pages2)4. 为“丹青识画”模型准备数据爬取和存储只是第一步。要让数据真正赋能模型训练还需要进行针对性的预处理。数据筛选与平衡检查收集的数据集。如果“文艺复兴”风格的作品有10000张而“立体主义”只有100张模型就会严重偏科。需要根据你的识别目标是识别风格还是作者对数据进行筛选或补充采集确保各类别相对平衡。图像预处理将下载的图片统一调整为模型需要的输入尺寸如224x224进行归一化处理。这能加速训练并提升模型稳定性。构建标注文件模型训练需要一个标注文件如train.txt里面每一行对应一张图片和它的标签。格式通常为图片本地路径 标签。这个标签可以是风格如“impressionism”也可以是作者如“Vincent_van_Gogh”取决于你的任务。划分数据集将数据按比例如7:2:1划分为训练集、验证集和测试集。训练集用于模型学习验证集用于调整超参数测试集用于最终评估模型泛化能力。5. 总结与展望走完这一整套流程你会发现从零开始构建一个专属的艺术图像数据集并没有想象中那么遥不可及。Python爬虫技术就像一把钥匙帮你打开了全球艺术数字宝库的大门。通过合法、合规、有策略的自动化采集你能够高效地积累起高质量、结构化的数据这是任何优秀AI视觉模型的基石。在实际操作中每个网站都有其独特性需要你灵活调整解析策略。最重要的是始终保持对数据源的尊重遵守robots.txt协议控制请求频率避免对目标服务器造成负担。有了这些高质量数据你的“丹青识画”模型就有了充足的养料无论是进行风格分类、作者鉴定还是画作检索其性能和准确性都将获得质的飞跃。接下来就是将这些数据喂给模型开始真正的训练和迭代之旅了。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2464358.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…