Python爬虫实战:自动采集开源语音数据集训练Qwen3-ASR-0.6B

news2026/3/20 23:11:25
Python爬虫实战自动采集开源语音数据集训练Qwen3-ASR-0.6B最近在捣鼓语音识别模型特别是像Qwen3-ASR-0.6B这样的轻量级模型。想让它听懂一些特定领域的对话比如带点口音的方言或者满是专业术语的学术讲座。但问题来了上哪儿去找那么多带字幕的、高质量的音频数据呢公开的大数据集虽然多但往往不够“对口”。自己录成本高效率低。这时候Python爬虫就成了一个非常实用的工具。我们可以从一些合规的公开资源比如学术网站、知识分享平台定向抓取那些带字幕的音频或视频然后处理成模型能“吃”的格式。今天我就来分享一下这个实战过程。怎么用爬虫合规地收集数据怎么清洗和标注最后怎么用这些数据来“喂养”Qwen3-ASR-0.6B看看它在特定场景下的表现能提升多少。整个过程就像给模型准备一份定制化的“听力训练材料”既有技术细节也有不少需要注意的“坑”。1. 场景与目标为什么要自己动手爬数据语音识别模型尤其是像Qwen3-ASR-0.6B这样参数不算太大的模型在通用场景下表现可能不错但一旦遇到特定领域就容易“水土不服”。比如你想让它识别医学讲座里的专业名词或者理解带有浓重地方口音的访谈通用数据训练出来的模型往往力不从心。这时候领域自适应或者微调就显得很重要。而微调的第一步就是得有数据。理想的语音数据需要“音文对齐”也就是每一段音频都有准确对应的文字稿字幕。这类数据在一些垂直领域非常稀缺。手动收集和整理这些数据极其耗时。而互联网上其实散落着大量宝藏许多大学公开课、技术大会演讲、科普视频都提供了高质量的视频和同步字幕。利用Python爬虫我们可以自动化地、批量化地从这些合规来源获取原始素材极大地提升数据准备的效率。我们的目标很明确构建一个自动化流程从目标网站抓取音频/视频 字幕对经过处理后形成一个干净、对齐的语音文本数据集用于后续对Qwen3-ASR-0.6B模型进行评测或微调。2. 方案设计从网页到数据集的完整流水线整个方案可以看作一条数据处理流水线核心步骤环环相扣。我们先从整体上把握再深入每个环节的细节。首先我们需要明确数据源。务必选择那些明确允许爬取、或通过robots.txt协议未禁止爬取、且内容具有开源或公共分享性质的网站。例如一些大学的公开课平台、技术社区的演讲视频库等。绝对不要触碰那些有明确版权限制、需要付费订阅或登录后才能获取个人数据的内容。确定了目标网站后我们的技术路线大致分为四步网页抓取与解析下载目标页面提取出音频/视频文件地址和字幕文件如SRT、VTT格式的链接。媒体与字幕下载并行或顺序下载找到的媒体文件和字幕文件。数据清洗与对齐这是最核心的一步。将字幕文件的时间戳和文本与音频进行精确对齐、切割并处理文本中的噪音如笑声标记[LAUGHTER]、说话人标识等。格式转换与打包将处理后的音频通常转换为WAV格式和对应的纯文本整理成模型训练所需的格式比如JSONL每行一个{audio: path.wav, text: 对应文字}的字典。下面这张图概括了整个流程flowchart TD A[目标公开视频网站] -- B[Python爬虫抓取页面] B -- C{解析页面内容} C -- D[提取视频/音频链接] C -- E[提取字幕文件链接] D -- F[下载媒体文件] E -- G[下载字幕文件] F -- H[数据清洗与对齐处理] G -- H H -- I[格式转换bre.g., 音频转WAV, 文本清洗] I -- J[打包为模型训练格式bre.g., JSONL] J -- K[用于Qwen3-ASR模型微调/评估]接下来我们进入实战环节看看代码具体怎么写。3. 实战步骤一定向爬取音频与字幕我们以一个假设的、结构清晰的公开课网站为例。在实际操作中你需要先用浏览器开发者工具F12仔细分析目标网站的结构找到媒体和字幕文件的真实链接规律。3.1 分析页面与提取链接假设目标视频页面的HTML中视频文件藏在video标签的src属性里字幕文件链接则在track标签中。我们会使用requests获取网页用BeautifulSoup进行解析。import requests from bs4 import BeautifulSoup import re import os def extract_media_and_subtitle(page_url): 从指定页面提取音频/视频和字幕文件链接。 headers { User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 } try: response requests.get(page_url, headersheaders, timeout10) response.raise_for_status() # 检查请求是否成功 except requests.RequestException as e: print(f请求页面失败: {page_url}, 错误: {e}) return None, None soup BeautifulSoup(response.content, html.parser) # 查找视频或音频标签 (这里以video为例) media_tag soup.find(video) media_url None if media_tag and media_tag.get(src): media_url media_tag[src] # 处理可能的相对链接 if media_url.startswith(//): media_url https: media_url elif media_url.startswith(/): media_url https://example.com media_url # 替换为实际域名 # 查找字幕标签 (track标签 kindsubtitles或captions) subtitle_tag soup.find(track, {kind: re.compile(rsubtitles|captions, re.I)}) subtitle_url None if subtitle_tag and subtitle_tag.get(src): subtitle_url subtitle_tag[src] # 同样处理相对链接 if subtitle_url.startswith(//): subtitle_url https: subtitle_url elif subtitle_url.startswith(/): subtitle_url https://example.com subtitle_url return media_url, subtitle_url # 示例用法 page_url https://example.com/lecture/123 # 替换为实际URL media_url, subtitle_url extract_media_and_subtitle(page_url) print(f媒体文件: {media_url}) print(f字幕文件: {subtitle_url})3.2 下载文件提取到链接后我们就可以下载文件了。为了效率可以考虑使用aiohttp进行异步下载这里先用同步方式演示。def download_file(url, save_path): 下载文件到指定路径 headers {User-Agent: Mozilla/5.0} try: response requests.get(url, headersheaders, streamTrue, timeout30) response.raise_for_status() os.makedirs(os.path.dirname(save_path), exist_okTrue) with open(save_path, wb) as f: for chunk in response.iter_content(chunk_size8192): f.write(chunk) print(f文件已下载: {save_path}) return True except Exception as e: print(f下载失败 {url}: {e}) return False # 假设我们已经有了链接 media_save_path ./data/raw/lecture_123.mp4 subtitle_save_path ./data/raw/lecture_123.srt # 下载媒体文件 (可能是.mp4, .mp3等) # download_file(media_url, media_save_path) # 下载字幕文件 (可能是.srt, .vtt等) # download_file(subtitle_url, subtitle_save_path)重要提示在实际操作中务必在两次请求之间添加延时例如time.sleep(1)并遵守目标网站的robots.txt规则避免对服务器造成过大压力。4. 实战步骤二数据清洗与音文对齐下载下来的原始数据通常不能直接使用。字幕文件如SRT包含时间戳和可能无关的标记音频文件可能需要切割并与文本精确对齐。4.1 解析字幕文件我们以常见的SRT格式为例解析它得到结构化的时间戳和文本列表。import re from datetime import datetime def parse_srt_file(srt_path): 解析SRT字幕文件返回列表每个元素是 (start_ms, end_ms, text) with open(srt_path, r, encodingutf-8) as f: content f.read() # 用空行分割成一个个字幕块 blocks re.split(r\n\s*\n, content.strip()) subtitles [] for block in blocks: lines block.strip().split(\n) if len(lines) 3: continue # 第一行是序号第二行是时间轴 time_line lines[1] # 匹配时间格式例如: 00:00:01,234 -- 00:00:04,567 time_match re.match(r(\d{2}):(\d{2}):(\d{2}),(\d{3})\s*--\s*(\d{2}):(\d{2}):(\d{2}),(\d{3}), time_line) if not time_match: continue # 计算开始和结束的毫秒数 def time_to_ms(h, m, s, ms): return int(h) * 3600000 int(m) * 60000 int(s) * 1000 int(ms) start_ms time_to_ms(*time_match.groups()[:4]) end_ms time_to_ms(*time_match.groups()[4:]) # 第三行及之后是字幕文本 text .join(lines[2:]).strip() # 简单的文本清洗移除HTML标签、多余的空白、笑声标记等 text re.sub(r[^], , text) # 去HTML标签 text re.sub(r\[.*?\], , text) # 去方括号内容如[音乐], [笑声] text re.sub(r\s, , text) # 合并多余空格 if text: # 只保留有文本的字幕块 subtitles.append((start_ms, end_ms, text)) return subtitles # 示例用法 # subtitles parse_srt_file(subtitle_save_path) # for start, end, text in subtitles[:3]: # 打印前三条 # print(f{start}ms - {end}ms: {text})4.2 切割音频与文本对齐有了精确到毫秒的时间戳我们就可以用pydub库来切割音频文件并生成一一对应的音频片段和文本。from pydub import AudioSegment import json def align_and_split_audio(audio_path, subtitles, output_dir): 根据字幕时间戳切割音频并生成对齐数据。 audio_path: 原始音频文件路径 (支持mp3, wav, mp4等) subtitles: parse_srt_file返回的列表 output_dir: 切割后音频片段和标注文件的输出目录 # 加载音频文件 audio AudioSegment.from_file(audio_path) os.makedirs(output_dir, exist_okTrue) os.makedirs(os.path.join(output_dir, segments), exist_okTrue) metadata [] for idx, (start_ms, end_ms, text) in enumerate(subtitles): # 确保时间戳在音频长度范围内 if start_ms len(audio) and end_ms len(audio) and start_ms end_ms: # 切割音频 segment audio[start_ms:end_ms] segment_filename fsegment_{idx:04d}.wav segment_path os.path.join(output_dir, segments, segment_filename) # 导出为WAV格式 (模型常用格式) segment.export(segment_path, formatwav) # 记录元数据 metadata.append({ audio: segment_path, text: text, start_ms: start_ms, end_ms: end_ms, duration_ms: end_ms - start_ms }) else: print(f警告: 字幕块{idx}的时间戳 {start_ms}-{end_ms}ms 超出音频范围或无效。) # 将元数据保存为JSON Lines格式 metadata_path os.path.join(output_dir, metadata.jsonl) with open(metadata_path, w, encodingutf-8) as f: for item in metadata: f.write(json.dumps(item, ensure_asciiFalse) \n) print(f处理完成。共生成 {len(metadata)} 个音频片段。元数据保存在: {metadata_path}) return metadata # 示例用法 (假设已从视频中提取出纯音频文件或直接使用mp3) # 注意如果原始文件是视频需要先用工具(如ffmpeg)提取音频或pydub也支持部分视频格式。 # raw_audio_path ./data/raw/lecture_123_audio.wav # aligned_data align_and_split_audio(raw_audio_path, subtitles, ./data/processed/lecture_123)5. 实战步骤三构建数据集与模型使用处理完一批这样的文件后你就得到了一个由许多(audio.wav, text)对组成的自定义数据集。接下来就是为Qwen3-ASR-0.6B模型准备数据了。5.1 整理最终数据集格式通常微调或评估需要将数据整理成特定的格式。一个简单通用的格式是JSONL每行一个样本。import glob import json def create_final_dataset(processed_dirs, output_jsonl_path): 合并多个处理后的目录生成最终的训练/评估数据集文件。 processed_dirs: 包含多个align_and_split_audio输出目录的列表 output_jsonl_path: 最终输出的jsonl文件路径 all_samples [] for dir_path in processed_dirs: metadata_path os.path.join(dir_path, metadata.jsonl) if os.path.exists(metadata_path): with open(metadata_path, r, encodingutf-8) as f: for line in f: data json.loads(line.strip()) # 我们可以只保留模型需要的字段 all_samples.append({ audio: data[audio], # 音频文件路径 sentence: data[text] # 对应的文本字段名根据模型要求调整 }) else: print(f警告: 在目录 {dir_path} 中未找到 metadata.jsonl) # 写入最终的jsonl文件 with open(output_jsonl_path, w, encodingutf-8) as f: for sample in all_samples: f.write(json.dumps(sample, ensure_asciiFalse) \n) print(f最终数据集已创建包含 {len(all_samples)} 个样本。保存至: {output_jsonl_path}) # 假设我们处理了三个讲座 # create_final_dataset([ # ./data/processed/lecture_123, # ./data/processed/lecture_456, # ./data/processed/lecture_789 # ], ./data/final_dataset.jsonl)5.2 用于模型评估与微调得到final_dataset.jsonl后你就可以用它来评估Qwen3-ASR-0.6B在你这批特定数据上的表现或者用它进行微调。评估示例思路 你可以写一个脚本用模型转录数据集中的每个音频然后与标注文本sentence字段计算词错误率WER等指标从而量化模型在你关注领域的效果。微调示例思路 Qwen3-ASR模型的微调通常需要准备特定格式的数据集如Hugging Face Dataset格式并按照其官方提供的微调脚本进行。你的jsonl文件可以很容易地转换为所需的格式。核心是准备好audio文件路径或数组和text转录文本两列。# 这是一个概念性示例展示如何加载自定义数据用于评估 from datasets import Dataset, Audio import json # 加载我们创建的jsonl文件 def load_custom_dataset(jsonl_path): data [] with open(jsonl_path, r, encodingutf-8) as f: for line in f: data.append(json.loads(line)) # 创建Hugging Face Dataset dataset Dataset.from_list(data) # 将audio列转换为真正的音频对象便于模型读取 dataset dataset.cast_column(audio, Audio()) return dataset # custom_dataset load_custom_dataset(./data/final_dataset.jsonl) # print(custom_dataset[0])6. 关键注意事项与最佳实践通过爬虫构建数据集非常强大但其中涉及的法律、伦理和技术细节必须高度重视。合规与版权是第一要务尊重robots.txt爬取前务必检查目标网站的robots.txt文件遵守其规定。明确版权与许可只爬取明确声明为公开、开源如CC协议或允许用于研究目的的内容。商业用途需格外谨慎。限制爬取频率在代码中设置合理的请求间隔如time.sleep(2)避免对目标服务器造成拒绝服务攻击。标注数据来源在最终数据集中最好能保留原始出处信息以备核查。数据质量决定模型上限字幕准确性自动生成的字幕可能有错误需要评估或进行人工抽检校正。音频质量注意背景噪音、多人说话、音乐干扰等情况必要时进行音频增强或过滤。领域代表性确保爬取的数据能充分代表你想让模型学习的领域特点如特定的术语、口音。数据平衡避免数据过度集中于某个说话人或某个主题导致模型过拟合。工程化与可维护性模块化代码将爬取、解析、清洗、对齐的代码写成独立的函数或类方便调试和复用。错误处理与日志网络请求、文件处理都可能出错完善的异常处理和日志记录能帮你快速定位问题。增量爬取设计机制记录已爬取的URL避免重复工作也便于断点续爬。资源管理音频视频文件很大规划好存储空间定期清理中间文件。7. 总结走完这一趟你会发现用Python爬虫构建定制化的语音数据集虽然前期需要一些分析和编码工作但一旦流程跑通就能持续地、自动化地获取高质量数据这对于深耕特定领域的语音识别应用来说价值非常大。整个过程就像是为模型精心准备“听力考试”和“辅导材料”。从合规地寻找“题库”目标网站到用爬虫“复印试卷”下载数据再到仔细“批改和装订”清洗对齐最后形成一份有效的“学习资料”训练集。用这份资料去评估或训练Qwen3-ASR-0.6B能显著提升它在特定场景下的“听力理解”能力。当然每个网站的结构都像一座不同的迷宫需要你耐心分析。数据清洗的细节也很多比如如何处理字幕中的标点、语气词如何过滤低质量的音频段这些都需要根据实际数据情况灵活调整。但掌握了这套方法你就拥有了将互联网上海量公开的语音资源转化为驱动AI模型进步的关键燃料的能力。不妨找一个你感兴趣的垂直领域动手试试看吧。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2431452.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…