[具身智能-462]:语音识别是把通过麦克风接收到的声波转化成语音波形,经过数字化后的语音文件转化成文字;语音合成是把文字转换成语音波形,然后通过speaker转换成声波。
人机语音交互中“听”与“说”的完整闭环语音识别 (ASR)是“听”的过程即声波 →→ 数字信号 →→ 文字。语音合成 (TTS)是“说”的过程即文字 →→ 数字信号 →→ 声波。为了更透彻地理解这两个过程背后的技术细节结合前面提到的流程我们拆解一下这中间的“黑盒”里究竟发生了什么1. 语音识别 (ASR)从耳朵到大脑 “数字化后的语音文件转化成文字”在技术内部其实是一场精密的数学映射。信号预处理与特征提取麦克风采集的声波是模拟信号经过模数转换采样率通常为16kHz或8kHz变成数字波形。但计算机看不懂原始波形所以需要通过傅里叶变换等数学工具将声音从“时间域”转换到“频率域”提取出梅尔频率倒谱系数 (MFCC)或滤波器组 (FBANK)特征。这相当于把声音变成了计算机能看懂的“声纹指纹”。声学模型 (Acoustic Model)这是ASR的“耳朵”。它利用深度学习模型如Conformer或Transformer分析这些声纹特征预测它们最可能对应的发音单元音素。例如它判断出一段波形听起来像拼音中的 zh 或 ong。语言模型 (Language Model) 与解码这是ASR的“大脑”。光听清声音不够还得听懂意思。比如声学模型听到了ping guo语言模型会根据上下文判断是水果“苹果”还是手机“Apple”。最后解码器 结合声学概率和语言概率计算出最合理的那句文字输出。2. 语音合成 (TTS)从大脑到嘴巴 ️“把文字转换成语音波形”现在的技术已经能做到以假乱真其核心在于模拟人类发声的生理机制。文本分析 (Text Analysis)这是TTS的“阅读理解”阶段。计算机不仅要读字还要理解文本。它需要处理文本归一化把 100kg 读成 一百千克、多音字消歧判断“行”是读 háng 还是 xíng并预测韵律哪里停顿、哪里重读、语调上扬还是下降。声学模型 (Acoustic Model)这是TTS的“声带模拟”。现代模型如FastSpeech 2或VITS接收文本特征预测出声音的梅尔频谱图 (Mel-spectrogram)。频谱图就像是声音的“蓝图”描述了声音在不同频率上的能量分布。声码器 (Vocoder)这是TTS的“嘴唇”。它负责把抽象的频谱图还原成真实的音频波形。现在的神经声码器如HiFi-GAN能生成极其逼真的波形甚至能模拟出人的呼吸声和颤音最后通过扬声器Speaker震动空气变回你听到的声波。总结技术的镜像对称我们可以用一个表格来对比这两个互为镜像的过程表格核心环节语音识别 (ASR)语音合成 (TTS)输入麦克风采集的声波用户输入的文本核心特征MFCC / FBANK (声音指纹)梅尔频谱图 (声音蓝图)核心模型声学模型(听音辨字) 语言模型(语义纠错)声学模型(文本转频谱) 声码器(频谱转波形)输出文本序列扬声器播放的声波简单“转化”背后其实是信号处理、深度学习和语言学的深度融合。现在的技术趋势如端到端模型甚至正在尝试跳过中间步骤直接实现“语音到语音”的翻译进一步模糊这两者的界限。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2556986.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!