第47篇:使用Speech-to-Text API快速构建语音应用(操作教程)

news2026/4/29 23:09:39
文章目录前言环境准备分步操作步骤一基础语音识别同步步骤二处理长音频异步步骤三实时语音识别流式完整代码与项目结构踩坑提示总结前言在做一个智能客服项目时我需要处理大量的用户语音咨询。一开始尝试用开源模型自己搭光是解决不同口音和背景噪音的问题就折腾了好几周效果还不理想。后来我直接转向了云服务商提供的 Speech-to-Text (STT) API开发效率瞬间提升了一个量级。今天这篇教程我就以 Google Cloud 的 Speech-to-Text API 为例带你从零开始快速构建一个可用的语音转文字应用。你会发现利用成熟的 API 服务能让你绕过很多底层算法的“坑”把精力集中在业务逻辑上。环境准备在开始敲代码之前我们需要把“战场”布置好。这里主要分为两步在云平台创建项目、获取认证凭证以及在本地配置开发环境。1. 创建 Google Cloud 项目并启用 API访问 Google Cloud Console。创建一个新项目例如my-speech-demo或者选择一个现有项目。在左侧导航栏找到“API 和服务” “库”。搜索“Cloud Speech-to-Text API”点击进入并“启用”该服务。2. 创建服务账号密钥关键步骤这是本地代码调用云端 API 的通行证很多新手在这里会卡住。在“API 和服务”中进入“凭据”页面。点击“创建凭据”选择“服务账号”。填写服务账号名称和 ID角色可以选择“项目 所有者”仅用于测试生产环境应遵循最小权限原则。创建完成后在服务账号列表中找到刚创建的账号点击其邮箱进入详情页。切换到“密钥”标签页点击“添加密钥” “创建新密钥”密钥类型选择JSON。下载生成的 JSON 私钥文件并妥善保存。我将它重命名为service-account-key.json放在项目根目录下。3. 本地 Python 环境配置确保你的机器上安装了 Python 3.7。我们创建一个干净的虚拟环境并安装必要的包。# 创建并进入项目目录mkdirspeech-to-text-democdspeech-to-text-demo# 创建虚拟环境可选但推荐python3-mvenv venv# 激活虚拟环境# Windows: venv\Scripts\activate# Mac/Linux: source venv/bin/activate# 安装 Google Cloud 语音客户端库pipinstallgoogle-cloud-speech分步操作步骤一基础语音识别同步我们从最简单的同步识别开始。这种方式适用于短音频小于1分钟API会等待整个音频处理完毕后才返回结果。首先设置环境变量指向你的密钥文件。这是让客户端库自动找到凭证的方法。# 在终端中执行注意替换为你的实际路径exportGOOGLE_APPLICATION_CREDENTIALS/path/to/your/service-account-key.json# 在Windows PowerShell中使用# $env:GOOGLE_APPLICATION_CREDENTIALSC:\path\to\your\service-account-key.json接下来创建第一个识别脚本sync_recognize.py# sync_recognize.pyimportiofromgoogle.cloudimportspeechdeftranscribe_file(speech_file):同步识别一个本地音频文件。# 实例化客户端clientspeech.SpeechClient()# 读取音频文件到内存withio.open(speech_file,rb)asaudio_file:contentaudio_file.read()# 构建音频对象指定编码和采样率# 这里以单声道、16kHz采样的FLAC文件为例这是API推荐的格式之一audiospeech.RecognitionAudio(contentcontent)# 配置识别参数configspeech.RecognitionConfig(encodingspeech.RecognitionConfig.AudioEncoding.FLAC,sample_rate_hertz16000,language_codezh-CN,# 中文普通话# 可选启用自动标点使结果更可读enable_automatic_punctuationTrue,)# 发起同步识别请求responseclient.recognize(configconfig,audioaudio)# 处理并打印结果forresultinresponse.results:# result.alternatives 是一个列表按置信度排序print(f转录文本:{result.alternatives[0].transcript})print(f置信度:{result.alternatives[0].confidence:.2%})if__name____main__:# 准备一个测试音频文件例如 record.flactranscribe_file(record.flac)运行它将一个短音频文件FLAC格式16kHz采样命名为record.flac放在同目录然后执行python sync_recognize.py。你应该能看到转写出的文字和置信度。步骤二处理长音频异步如果音频超过1分钟必须使用异步识别。API会立即返回一个操作名operation name你需要用这个操作名去轮询获取结果。创建async_recognize.py# async_recognize.pyfromgoogle.cloudimportspeechimporttimedeftranscribe_long_file(gcs_uri):异步识别一个存储在Google Cloud Storage中的长音频文件。clientspeech.SpeechClient()# 配置参数与同步类似configspeech.RecognitionConfig(encodingspeech.RecognitionConfig.AudioEncoding.FLAC,sample_rate_hertz16000,language_codezh-CN,enable_automatic_punctuationTrue,)# 注意这里 audio 的 source 是 Google Cloud Storage 的 URIaudiospeech.RecognitionAudio(urigcs_uri)# 发起异步请求返回的是一个 Operation 对象operationclient.long_running_recognize(configconfig,audioaudio)print(正在处理长音频请等待...)# 等待操作完成这是一个阻塞调用responseoperation.result(timeout90)# 设置超时时间单位秒# 将结果写入文件withopen(long_transcript.txt,w,encodingutf-8)asf:forresultinresponse.results:transcriptresult.alternatives[0].transcript f.write(transcript\n)print(f片段转录:{transcript})print(完整转录已保存至 long_transcript.txt)if__name____main__:# 你需要先将长音频文件上传到 Google Cloud Storage# 格式gs://你的存储桶名/音频文件路径.flacurigs://my-speech-bucket/long-audio.flactranscribe_long_file(uri)关键点异步识别要求音频文件必须放在Google Cloud Storage (GCS)上不能使用本地文件。你需要先创建一个GCS存储桶并上传文件。步骤三实时语音识别流式这是最酷的部分可以实现像语音助手那样的实时转写。它基于 gRPC 流能够一边接收音频流一边返回中间和最终结果。创建streaming_recognize.py# streaming_recognize.pyimportpyaudio# 需要安装pip install pyaudiofromsix.movesimportqueuefromgoogle.cloudimportspeechclassMicrophoneStream:开一个线程从麦克风读取音频数据到缓冲区。def__init__(self,rate,chunk):self._raterate self._chunkchunk self._buffqueue.Queue()self.closedTruedef__enter__(self):self._audio_interfacepyaudio.PyAudio()self._audio_streamself._audio_interface.open(formatpyaudio.paInt16,channels1,# 单声道rateself._rate,inputTrue,frames_per_bufferself._chunk,stream_callbackself._fill_buffer,)self.closedFalsereturnselfdef__exit__(self,type,value,traceback):self._audio_stream.stop_stream()self._audio_stream.close()self.closedTrueself._buff.put(None)# 发送结束信号self._audio_interface.terminate()def_fill_buffer(self,in_data,frame_count,time_info,status_flags):回调函数将麦克风数据放入队列。self._buff.put(in_data)returnNone,pyaudio.paContinuedefgenerator(self):生成音频数据块的生成器。whilenotself.closed:chunkself._buff.get()ifchunkisNone:returndata[chunk]whileTrue:try:chunkself._buff.get(blockFalse)ifchunkisNone:returndata.append(chunk)exceptqueue.Empty:breakyieldb.join(data)deflisten_print_loop(responses):迭代流式响应并打印结果。forresponseinresponses:ifnotresponse.results:continueresultresponse.results[0]ifnotresult.alternatives:continuetranscriptresult.alternatives[0].transcript# 检查是否是临时结果is_finalFalseifresult.is_final:print(f\n最终结果:{transcript})# 这里可以加入业务逻辑例如触发命令if停止intranscript:print(检测到停止指令退出。)breakelse:# 临时结果可以显示在UI上作为实时反馈print(f正在聆听:{transcript},end\r)defmain():# 音频流参数RATE16000CHUNKint(RATE/10)# 100ms 的块# 流式识别配置clientspeech.SpeechClient()configspeech.RecognitionConfig(encodingspeech.RecognitionConfig.AudioEncoding.LINEAR16,sample_rate_hertzRATE,language_codezh-CN,enable_automatic_punctuationTrue,# 流式识别建议使用增强模型modelcommand_and_search,# 适用于短命令对“打开灯光”这类短语优化use_enhancedTrue,)streaming_configspeech.StreamingRecognitionConfig(configconfig,interim_resultsTrue,# 关键设置为True以获取中间结果)withMicrophoneStream(RATE,CHUNK)asstream:audio_generatorstream.generator()requests(speech.StreamingRecognizeRequest(audio_contentcontent)forcontentinaudio_generator)responsesclient.streaming_recognize(streaming_config,requests)# 开始监听和打印listen_print_loop(responses)if__name____main__:main()运行这个脚本对着麦克风说话你会看到实时的转写文字在终端上滚动说完后约半秒会输出最终结果。这是构建语音交互应用的基石。完整代码与项目结构一个典型的语音应用项目结构可能如下speech-app/ ├── service-account-key.json # 密钥文件.gitignore 忽略 ├── requirements.txt ├── src/ │ ├── __init__.py │ ├── sync_recognizer.py # 封装同步识别 │ ├── async_recognizer.py # 封装异步识别 │ ├── stream_recognizer.py # 封装流式识别 │ └── utils/ │ └── audio_utils.py # 音频格式转换、预处理 └── examples/ ├── transcribe_short.py # 示例处理短录音 ├── transcribe_podcast.py # 示例处理长音频播客 └── live_caption.py # 示例实时字幕生成requirements.txt内容google-cloud-speech2.0.0 pyaudio0.2.11踩坑提示根据我的实战经验以下几个坑你大概率会遇到认证失败google.auth.exceptions.DefaultCredentialsError。这是头号杀手。请务必检查环境变量GOOGLE_APPLICATION_CREDENTIALS的路径是否正确、文件名是否拼写错误。密钥文件对应的服务账号是否已启用且所在项目是否已启用 Speech-to-Text API。有时在 IDE 中运行环境变量可能未加载尝试在终端直接激活环境后运行脚本。音频格式问题API 对音频编码、采样率、声道数有要求。常见的错误是采样率不匹配。最佳实践上传前使用ffmpeg统一将音频转换为单声道、16kHz 采样率的 FLAC 或 LINEAR16 (WAV) 格式。ffmpeg-iinput.mp3-ar16000-ac1output.flac流式识别延迟或中断在开发流式应用时网络不稳定或音频块大小不合适会导致连接断开或延迟高。调整 CHUNK 大小示例中的 100ms (RATE/10) 是个不错的起点可以根据网络情况微调。处理网络重连生产环境需要在responses迭代中加入异常捕获和重连逻辑。费用控制API 按处理时长收费。在开发和测试阶段注意使用较短的音频文件。设置预算提醒在 GCP 控制台“预算和提醒”中设置。本地可以先做简单的 VAD语音活动检测只上传有声音的片段。总结通过这篇教程我们走完了使用 Speech-to-Text API 构建语音应用的完整路径从环境配置、同步/异步识别到最复杂的流式识别。云服务 API 的强大之处在于它把顶尖的语音识别能力封装成了简单的函数调用让我们能快速实现产品原型并验证想法。记住同步用于短音频异步用于长文件流式用于实时交互。选择哪种方式完全取决于你的应用场景。下一步你可以尝试将识别结果接入到 NLP 模型如意图识别或 TTS文本转语音模块构建一个完整的语音对话系统。如有问题欢迎评论区交流持续更新中…

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2566940.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…