SenseVoice实战应用:将语音识别集成到你的Python项目中,快速调用API

news2026/4/8 6:14:04
SenseVoice实战应用将语音识别集成到你的Python项目中快速调用API1. 引言让Python项目听懂世界想象一下你的Python应用能够听懂用户说的话理解他们的意图甚至能感知他们的情绪。这在过去可能需要复杂的语音识别系统和昂贵的硬件支持但现在借助SenseVoice-small-语音识别-onnx模型这一切变得简单多了。SenseVoice是一个基于ONNX量化的多语言语音识别服务支持中文、粤语、英语、日语、韩语等多种语言。它最大的特点是小而强——模型经过量化处理后体积小仅230M但识别能力却非常出色。更棒的是它提供了简单易用的REST API接口让你可以轻松地将语音识别功能集成到现有的Python项目中。无论你是想开发智能客服系统、语音控制应用还是需要为项目添加语音转文字功能这篇文章都将带你一步步实现。我们将从环境准备开始到API调用实战再到实际应用案例让你快速掌握SenseVoice的集成方法。2. 环境准备与快速部署2.1 安装必要依赖在开始之前我们需要确保Python环境已经准备好。建议使用Python 3.8或更高版本并创建一个虚拟环境来隔离依赖# 创建并激活虚拟环境 python -m venv sensevoice-env source sensevoice-env/bin/activate # Linux/macOS # sensevoice-env\Scripts\activate # Windows # 安装核心依赖 pip install funasr-onnx gradio fastapi uvicorn soundfile jieba这些依赖包中funasr-onnx提供了ONNX模型的运行环境fastapi和uvicorn用于构建和运行API服务soundfile用于音频文件处理jieba中文分词工具用于中文语音识别2.2 启动语音识别服务安装完依赖后我们可以直接启动SenseVoice服务python3 app.py --host 0.0.0.0 --port 7860服务启动后你可以在浏览器中访问以下地址Web界面http://localhost:7860API文档http://localhost:7860/docs健康检查http://localhost:7860/health2.3 验证服务运行为了确保服务正常运行我们可以使用curl进行简单测试curl -X POST http://localhost:7860/api/transcribe \ -F fileaudio.wav \ -F languageauto \ -F use_itntrue如果一切正常你会收到类似这样的响应{ text: 你好这是一个测试语音, language: zh, emotion: neutral }3. Python调用API实战3.1 直接调用REST API最简单的方式是通过HTTP请求调用API。我们可以使用Python的requests库来实现import requests def transcribe_audio(file_path, languageauto, use_itnTrue): 调用SenseVoice API进行语音转写 :param file_path: 音频文件路径 :param language: 语言代码如zh、en等auto为自动检测 :param use_itn: 是否使用逆文本正则化 :return: 转写结果 url http://localhost:7860/api/transcribe with open(file_path, rb) as f: files {file: f} data {language: language, use_itn: use_itn} response requests.post(url, filesfiles, datadata) if response.status_code 200: return response.json() else: raise Exception(f识别失败: {response.text}) # 使用示例 result transcribe_audio(test.wav) print(f识别结果: {result[text]}) print(f检测语言: {result[language]}) if emotion in result: print(f情感分析: {result[emotion]})3.2 使用Python SDK直接调用除了REST APISenseVoice还提供了Python SDK可以直接在代码中调用模型from funasr_onnx import SenseVoiceSmall # 初始化模型 model SenseVoiceSmall( /root/ai-models/danieldong/sensevoice-small-onnx-quant, batch_size10, quantizeTrue ) # 识别单个音频文件 result model([audio.wav], languageauto, use_itnTrue) print(result[0]) # 批量识别多个音频文件 results model([audio1.wav, audio2.wav, audio3.wav], languagezh) for res in results: print(res)3.3 处理不同音频格式SenseVoice支持多种音频格式包括wav、mp3、m4a、flac等。如果你的音频不是wav格式可以使用以下代码进行转换from pydub import AudioSegment def convert_audio(input_path, output_pathoutput.wav): 将音频文件转换为wav格式 :param input_path: 输入文件路径 :param output_path: 输出文件路径 audio AudioSegment.from_file(input_path) audio.export(output_path, formatwav) return output_path # 使用示例 wav_file convert_audio(input.mp3) result transcribe_audio(wav_file)4. 高级功能与应用技巧4.1 情感识别与音频事件检测SenseVoice不仅能转写文字还能识别说话人的情感和音频中的事件def analyze_audio(file_path): 分析音频中的情感和事件 result transcribe_audio(file_path) output { text: result.get(text, ), language: result.get(language, unknown) } if emotion in result: output[emotion] result[emotion] print(f检测到情感: {result[emotion]}) if events in result and result[events]: output[events] result[events] print(f检测到音频事件: {, .join(result[events])}) return output # 使用示例 analysis analyze_audio(meeting.wav)4.2 语言自动检测与多语言支持SenseVoice支持50多种语言的自动检测我们可以利用这一特性处理多语言音频def detect_language(file_path): 检测音频中的语言 result transcribe_audio(file_path, languageauto) return result[language] # 支持的语言示例 supported_languages { auto: 自动检测, zh: 中文, en: 英语, yue: 粤语, ja: 日语, ko: 韩语 } # 使用示例 lang detect_language(multilingual.wav) print(f检测到语言: {supported_languages.get(lang, lang)})4.3 实时语音识别虽然SenseVoice主要设计用于处理预先录制的音频文件但我们也可以实现准实时的语音识别import sounddevice as sd import numpy as np import soundfile as sf from queue import Queue import threading class RealTimeASR: def __init__(self, chunk_duration5.0): 初始化实时语音识别 :param chunk_duration: 每次处理的音频时长(秒) self.chunk_duration chunk_duration self.audio_queue Queue() self.sample_rate 16000 self.channels 1 def callback(self, indata, frames, time, status): 音频回调函数 self.audio_queue.put(indata.copy()) def start_recording(self): 开始录音 print(开始录音...) self.stream sd.InputStream( samplerateself.sample_rate, channelsself.channels, callbackself.callback, dtypefloat32 ) self.stream.start() def stop_recording(self): 停止录音 self.stream.stop() self.stream.close() print(录音停止) def process_audio(self): 处理音频队列 while True: # 收集足够时长的音频 audio_chunks [] total_duration 0.0 while total_duration self.chunk_duration: chunk self.audio_queue.get() audio_chunks.append(chunk) total_duration len(chunk) / self.sample_rate # 合并音频块 audio_data np.concatenate(audio_chunks) # 保存临时文件并识别 temp_file temp.wav sf.write(temp_file, audio_data, self.sample_rate) result transcribe_audio(temp_file) print(f识别结果: {result[text]}) # 使用示例 rt_asr RealTimeASR(chunk_duration3.0) rt_asr.start_recording() # 在另一个线程中处理音频 processing_thread threading.Thread(targetrt_asr.process_audio) processing_thread.daemon True processing_thread.start() # 按Enter键停止 input(按Enter键停止录音...\n) rt_asr.stop_recording()5. 实际应用案例5.1 智能客服系统我们可以将SenseVoice集成到客服系统中实现语音交互class VoiceAssistant: def __init__(self): self.commands { 查询余额: self.check_balance, 转账: self.transfer_money, 投诉: self.handle_complaint, 人工服务: self.connect_agent } def process_voice_command(self, audio_file): 处理语音命令 result transcribe_audio(audio_file) text result[text] # 查找匹配的命令 for cmd, func in self.commands.items(): if cmd in text: return func() return 抱歉我没有听懂您的需求 def check_balance(self): return 您的当前余额为1000元 def transfer_money(self): return 请告诉我转账金额和收款人信息 def handle_complaint(self): return 已记录您的投诉我们会尽快处理 def connect_agent(self): return 正在为您转接人工客服... # 使用示例 assistant VoiceAssistant() response assistant.process_voice_command(command.wav) print(response)5.2 会议记录自动生成SenseVoice可以用于自动生成会议记录import datetime import os class MeetingRecorder: def __init__(self, output_dirmeetings): self.output_dir output_dir os.makedirs(output_dir, exist_okTrue) def record_meeting(self, audio_file): 记录会议内容 # 识别语音 result transcribe_audio(audio_file) # 生成文件名 now datetime.datetime.now() filename fmeeting_{now.strftime(%Y%m%d_%H%M%S)}.txt filepath os.path.join(self.output_dir, filename) # 保存结果 with open(filepath, w, encodingutf-8) as f: f.write(f会议时间: {now.strftime(%Y-%m-%d %H:%M:%S)}\n) f.write(f检测语言: {result.get(language, 未知)}\n) f.write(\n会议内容:\n) f.write(result[text]) if emotion in result: f.write(f\n\n情感分析: {result[emotion]}) if events in result and result[events]: f.write(f\n检测到的事件: {, .join(result[events])}) print(f会议记录已保存到: {filepath}) return filepath # 使用示例 recorder MeetingRecorder() recorder.record_meeting(meeting.wav)5.3 多语言翻译系统结合翻译API我们可以构建一个语音翻译系统from googletrans import Translator class VoiceTranslator: def __init__(self): self.translator Translator() def translate_audio(self, audio_file, target_langen): 翻译语音内容 :param audio_file: 音频文件路径 :param target_lang: 目标语言代码 :return: 翻译结果 # 先识别原始语音 result transcribe_audio(audio_file) source_text result[text] source_lang result[language] # 翻译文本 translation self.translator.translate( source_text, srcsource_lang, desttarget_lang ) return { original_text: source_text, original_language: source_lang, translated_text: translation.text, target_language: target_lang } # 使用示例 translator VoiceTranslator() result translator.translate_audio(chinese.wav, target_langen) print(f原文({result[original_language]}): {result[original_text]}) print(f翻译({result[target_language]}): {result[translated_text]})6. 性能优化与问题排查6.1 提高识别准确率如果遇到识别准确率不高的情况可以尝试以下方法音频预处理def preprocess_audio(input_path, output_pathprocessed.wav): 音频预处理 import librosa from pydub import AudioSegment # 加载音频并重采样到16kHz y, sr librosa.load(input_path, sr16000) # 降噪处理 y_denoised librosa.effects.preemphasis(y) # 保存处理后的音频 audio AudioSegment( y_denoised.tobytes(), frame_rate16000, sample_width2, channels1 ) audio.export(output_path, formatwav) return output_path调整语言参数如果知道音频的语言明确指定语言代码如languagezh而不是使用auto对于混合语言音频可以分段处理使用ITN逆文本正则化设置use_itnTrue可以将百分之十转为10%等更规范的文本6.2 处理长音频文件SenseVoice对长音频的支持有限可以分段处理def transcribe_long_audio(file_path, chunk_size30): 分段处理长音频文件 :param file_path: 音频文件路径 :param chunk_size: 每段时长(秒) from pydub import AudioSegment import math audio AudioSegment.from_file(file_path) duration len(audio) / 1000 # 总时长(秒) chunks math.ceil(duration / chunk_size) results [] for i in range(chunks): start i * chunk_size * 1000 end (i 1) * chunk_size * 1000 chunk audio[start:end] chunk_file fchunk_{i}.wav chunk.export(chunk_file, formatwav) result transcribe_audio(chunk_file) results.append(result[text]) # 删除临时文件 os.remove(chunk_file) return .join(results)6.3 常见错误处理模型加载失败确保模型路径正确/root/ai-models/danieldong/sensevoice-small-onnx-quant检查磁盘空间是否足够音频格式不支持确保音频是支持的格式wav、mp3、m4a、flac等使用pydub或ffmpeg转换格式内存不足减少batch_size参数关闭其他占用内存的程序增加交换空间swap7. 总结与扩展7.1 关键要点回顾通过本文我们学习了如何快速部署SenseVoice语音识别服务通过REST API和Python SDK两种方式调用服务实现实时语音识别、情感分析等高级功能构建智能客服、会议记录等实际应用优化识别准确率和处理常见问题7.2 扩展应用方向SenseVoice还可以用于更多场景教育领域语言学习、发音评估医疗领域医患对话记录、病历语音录入智能家居语音控制家电无障碍技术为视障人士提供语音交互7.3 后续学习建议如果想进一步探索尝试集成到Django/Flask等Web框架结合TTS文本转语音实现完整对话系统研究模型微调适应特定领域术语探索边缘设备部署如树莓派获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2495082.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…