.NET Core后端调用Qwen3-ASR-0.6B API实现会议语音转写系统
.NET Core后端调用Qwen3-ASR-0.6B API实现会议语音转写系统1. 引言想象一下每次开完会你是不是都得花上半小时甚至更久去整理那些零零散散的会议记录特别是那种多人参与的讨论会谁说了什么观点是什么光靠回忆和手写笔记不仅效率低还容易出错。现在很多团队都开始用录音来记录会议但录音文件本身并不能直接变成可搜索、可编辑的文字纪要。手动听录音转文字更是费时费力。对于使用.NET技术栈的团队来说如果能有一个自己掌控的、能自动把会议录音变成文字记录的系统那该多省事。这篇文章我就来跟你聊聊怎么用咱们熟悉的C#和ASP.NET Core结合一个效果不错的语音转文字模型——Qwen3-ASR-0.6B来搭建一个轻量级的会议语音转写系统。你不用再为整理会议纪要头疼系统会自动帮你把录音文件处理好区分出不同的发言人生成结构清晰的文本甚至还能直接保存到数据库里方便后续查找和管理。整个过程咱们就用.NET那一套来搞定从文件上传、调用AI接口到结果处理和数据存储我会一步步带你走一遍。2. 场景与需求分析在动手写代码之前咱们先得把要解决的问题和具体需求想清楚。这个系统不是凭空造出来的它得解决真实会议场景中的几个痛点。首先最核心的需求是语音转文字要准。开会时环境可能不那么安静有人说话快有人带点口音模型得能比较准确地识别出来。Qwen3-ASR-0.6B这个模型在中文语音识别上表现不错对于会议场景常见的对话内容识别率能满足基本要求。其次要能区分发言人。如果转写出来的只是一大段文字没有标明谁说的那价值就大打折扣了。好在一些语音转写服务或模型包括我们将要使用的API能够提供说话人分离Speaker Diarization或者声道分离的能力。对于立体声录音我们可以假设左、右声道分别记录了不同人的声音这是一个简化但有效的起步方案。第三要方便集成到现有工作流。对于.NET开发者来说最好能用ASP.NET Core快速搭建一个Web API前端比如一个简单的上传页面可以方便地上传文件后端处理完后能把结果包括分轨文本和整合纪要通过接口返回或者直接存到像SQL Server、PostgreSQL这样的数据库里。最后还得考虑稳定性和异步处理。音频文件可能比较大转写过程也需要时间不能因为一个文件处理卡住就让整个服务无响应。我们需要用异步编程来处理文件上传和API调用。简单总结一下我们要做的系统大概长这样用户通过网页上传一个会议录音文件比如MP3、WAV格式后端接收到文件后对其进行预处理如格式检查然后调用星图GPU平台上的Qwen3-ASR-0.6B API进行转写。API返回带有时序和可能的声道信息的文本后我们后端再根据这些信息将文本按“发言人”这里初步按声道区分进行归并和整理生成一份带有发言人标签的会议纪要最后把这份纪要保存起来并提供下载或查看。3. 系统设计与核心流程明确了要做什么接下来咱们看看整个系统怎么搭。这里我设计了一个比较简单清晰的流程主要分为四个步骤。3.1 整体架构概览我们构建的是一个典型的ASP.NET Core Web API应用。前端可以是一个极简的上传页面用Vue、React或者Blazor都行甚至一个简单的HTML表单也可以核心逻辑都在后端。后端服务主要包含这几个部分文件上传控制器接收用户上传的音频文件。音频处理服务负责检查音频格式、时长等信息。如果API要求特定格式如PCM WAV可能还需要进行转码这里我们可以先假设上传的是常见格式API能够支持。语音转写API客户端这是核心负责构造请求、调用星图平台上的Qwen3-ASR-0.6B API并处理返回的JSON结果。文本后处理与存储服务把API返回的原始结果可能是一段段带时间戳和声道信息的文本整理成按发言人分段的会议纪要然后存入数据库。数据库用来存储任务记录、音频文件元信息以及生成的会议纪要文本。整个数据流是这样的上传文件 - 保存文件到临时位置 - 调用转写API - 处理API响应 - 整理文本并入库 - 返回处理结果给前端。3.2 核心流程步骤为了让思路更清晰我把从用户上传到拿到纪要的关键步骤画在了下面这个流程图里。你可以跟着这个图来看后续的代码实现。flowchart TD A[用户上传会议录音文件] -- B[ASP.NET Core后端接收文件] B -- C[文件验证与临时存储] C -- D[准备API请求br读取文件、设置参数] D -- E[异步调用brQwen3-ASR-0.6B API] E -- F{API调用成功} F -- 是 -- G[解析API返回的br带时间戳/声道的文本] F -- 否 -- H[记录错误返回失败信息] G -- I[文本后处理br按声道区分发言人、合并语句] I -- J[生成结构化会议纪要] J -- K[将纪要存入数据库] K -- L[返回成功响应br包含纪要内容或ID] H -- M[返回错误响应]这个流程的关键在于异步。从E到G调用外部API可能是最耗时的所以一定要用async/await避免阻塞线程。另外在I步骤我们做的后处理虽然简单按声道分但为后续更复杂的发言人识别比如基于声纹留出了扩展空间。3.3 技术栈选择后端框架ASP.NET Core 6.0 或 8.0。它内置了依赖注入、强大的配置系统和高效的HTTP客户端工厂是我们快速构建API的利器。HTTP客户端使用IHttpClientFactory来创建和管理调用语音转写API的HttpClient。这是最佳实践能有效避免套接字耗尽等问题。音频处理初期可能不需要复杂的本地音频处理。如果API支持常见格式如MP3、WAV我们可以直接上传。如果需要预处理可以考虑NAudio这个强大的.NET音频库。数据存储为了简单直观我们用Entity Framework Core (EF Core) SQL Server来演示。你可以轻松换成你喜欢的数据库比如PostgreSQL、MySQL或者SQLite。配置管理将API的端点Endpoint、密钥等敏感信息放在appsettings.json或更安全的如Azure Key Vault中通过IOptions模式注入使用。设计思路就聊到这里接下来我们进入最实际的环节——写代码。4. 关键代码实现理论说再多不如一行代码。我们直接来看这个系统里几个最关键的部分是怎么实现的。我会把重点放在调用API和处理结果上。4.1 项目搭建与模型定义首先创建一个新的ASP.NET Core Web API项目。然后我们定义几个核心的模型类用来对应数据库表和API的请求响应。1. 会议纪要实体用于数据库存储// Models/MeetingTranscript.cs using System; using System.ComponentModel.DataAnnotations; namespace MeetingTranscriber.Models { public class MeetingTranscript { [Key] public int Id { get; set; } [Required] [MaxLength(255)] public string MeetingTitle { get; set; } string.Empty; [Required] [MaxLength(100)] public string OriginalFileName { get; set; } string.Empty; // 存储处理后的完整纪要文本 public string TranscriptText { get; set; } string.Empty; // 可以存储JSON格式的结构化数据方便前端渲染 public string StructuredDataJson { get; set; } string.Empty; public DateTime CreatedAt { get; set; } DateTime.UtcNow; public TranscribeStatus Status { get; set; } TranscribeStatus.Pending; public string? ErrorMessage { get; set; } } public enum TranscribeStatus { Pending, Processing, Completed, Failed } }2. API响应模型根据Qwen3-ASR-0.6B API的实际返回格式调整假设API返回一个包含片段的列表每个片段有文本、开始时间、结束时间和声道信息。// Models/ApiResponseModels.cs using System.Collections.Generic; using System.Text.Json.Serialization; namespace MeetingTranscriber.Models { // 假设的API成功响应根对象 public class AsrApiResponse { [JsonPropertyName(text)] public string FullText { get; set; } string.Empty; // 完整文本 [JsonPropertyName(segments)] public ListTranscriptionSegment? Segments { get; set; } // 分段详情 [JsonPropertyName(language)] public string? Language { get; set; } } // 转录片段 public class TranscriptionSegment { [JsonPropertyName(text)] public string Text { get; set; } string.Empty; [JsonPropertyName(start)] public float StartTime { get; set; } // 开始时间秒 [JsonPropertyName(end)] public float EndTime { get; set; } // 结束时间秒 // 假设API返回声道信息例如 0 代表左声道/说话人A1 代表右声道/说话人B [JsonPropertyName(channel)] public int Channel { get; set; } 0; } // API错误响应 public class AsrApiError { [JsonPropertyName(error)] public string Error { get; set; } string.Empty; [JsonPropertyName(message)] public string Message { get; set; } string.Empty; } }4.2 语音转写API客户端服务这是核心中的核心。我们创建一个服务类专门负责和星图平台的语音转写API通信。// Services/AsrApiService.cs using System.Net.Http.Headers; using System.Text; using System.Text.Json; using MeetingTranscriber.Models; using Microsoft.Extensions.Options; namespace MeetingTranscriber.Services { public interface IAsrApiService { TaskAsrApiResponse TranscribeAudioAsync(Stream audioFileStream, string fileName, CancellationToken cancellationToken default); } public class AsrApiService : IAsrApiService { private readonly HttpClient _httpClient; private readonly AsrApiOptions _options; private readonly ILoggerAsrApiService _logger; public AsrApiService(IHttpClientFactory httpClientFactory, IOptionsAsrApiOptions options, ILoggerAsrApiService logger) { // 使用命名客户端方便在Program.cs中配置 _httpClient httpClientFactory.CreateClient(QwenASR); _options options.Value; _logger logger; } public async TaskAsrApiResponse TranscribeAudioAsync(Stream audioFileStream, string fileName, CancellationToken cancellationToken default) { try { // 1. 构建Multipart表单数据请求 using var formData new MultipartFormDataContent(); using var fileContent new StreamContent(audioFileStream); fileContent.Headers.ContentType new MediaTypeHeaderValue(audio/wav); // 根据实际格式调整 formData.Add(fileContent, file, fileName); // 2. 可以添加其他API参数例如语言、是否启用说话人分离等 // formData.Add(new StringContent(zh), language); // formData.Add(new StringContent(true), diarization); // 3. 设置认证头如果API需要例如Bearer Token if (!string.IsNullOrEmpty(_options.ApiKey)) { _httpClient.DefaultRequestHeaders.Authorization new AuthenticationHeaderValue(Bearer, _options.ApiKey); } // 4. 发送POST请求 _logger.LogInformation(调用语音转写API文件{FileName}, fileName); var response await _httpClient.PostAsync(_options.Endpoint, formData, cancellationToken); // 5. 处理响应 response.EnsureSuccessStatusCode(); // 如果状态码不成功会抛出异常 var responseString await response.Content.ReadAsStringAsync(cancellationToken); // 6. 反序列化JSON响应 var apiResponse JsonSerializer.DeserializeAsrApiResponse(responseString, new JsonSerializerOptions { PropertyNameCaseInsensitive true }); if (apiResponse null) { throw new InvalidOperationException(API返回了空或无法解析的响应。); } _logger.LogInformation(语音转写API调用成功识别出约{Length}字符。, apiResponse.FullText?.Length ?? 0); return apiResponse; } catch (HttpRequestException ex) { _logger.LogError(ex, 调用语音转写API时网络或HTTP错误。); throw new ApplicationException(语音转写服务暂时不可用请稍后重试。, ex); } catch (JsonException ex) { _logger.LogError(ex, 解析语音转写API响应时出错。); throw new ApplicationException(处理转写结果时发生错误。, ex); } catch (Exception ex) { _logger.LogError(ex, 语音转写过程中发生未知错误。); throw; } } } // 配置类在appsettings.json中配置 public class AsrApiOptions { public const string SectionName AsrApi; public string Endpoint { get; set; } string.Empty; public string ApiKey { get; set; } string.Empty; } }在Program.cs或Startup.cs中注册这个服务和配置// Program.cs builder.Services.ConfigureAsrApiOptions(builder.Configuration.GetSection(AsrApiOptions.SectionName)); builder.Services.AddHttpClient(QwenASR, client { // 基础地址可以在配置中设置这里只是示例 var options builder.Configuration.GetSection(AsrApiOptions.SectionName).GetAsrApiOptions(); client.BaseAddress new Uri(options?.Endpoint ?? https://api.example.com); client.Timeout TimeSpan.FromSeconds(300); // 设置长超时因为音频转写可能较慢 }); builder.Services.AddScopedIAsrApiService, AsrApiService();对应的appsettings.json配置{ AsrApi: { Endpoint: https://your-gpu-platform-endpoint/v1/audio/transcriptions, ApiKey: your-api-key-here } }4.3 文本后处理与发言人区分拿到API返回的分段数据后我们需要把它整理成更易读的会议纪要格式。这里我们实现一个简单的后处理服务。// Services/TranscriptProcessorService.cs using MeetingTranscriber.Models; using System.Text; using System.Text.Json; namespace MeetingTranscriber.Services { public interface ITranscriptProcessorService { // 处理API原始响应生成带发言人标签的文本和结构化JSON (string formattedText, string structuredJson) ProcessTranscript(AsrApiResponse apiResponse); } public class TranscriptProcessorService : ITranscriptProcessorService { public (string formattedText, string structuredJson) ProcessTranscript(AsrApiResponse apiResponse) { if (apiResponse.Segments null || apiResponse.Segments.Count 0) { // 如果没有分段信息返回完整文本 return (apiResponse.FullText, JsonSerializer.Serialize(new { fullText apiResponse.FullText })); } // 1. 按声道假设代表发言人分组并排序 var segmentsBySpeaker apiResponse.Segments .OrderBy(s s.StartTime) .GroupBy(s s.Channel) .ToDictionary(g g.Key, g g.ToList()); var structuredEntries new Listobject(); var formattedTextBuilder new StringBuilder(); // 2. 为每个声道发言人生成文本 foreach (var speakerGroup in segmentsBySpeaker.OrderBy(kv kv.Key)) { int speakerId speakerGroup.Key; var speakerSegments speakerGroup.Value; // 简单合并同一个发言人的连续片段 string speakerText string.Join( , speakerSegments.Select(s s.Text.Trim())); if (!string.IsNullOrWhiteSpace(speakerText)) { // 构建结构化条目 structuredEntries.Add(new { speaker $发言人{speakerId 1}, // 更友好的显示如“发言人A” channel speakerId, text speakerText, startTime speakerSegments.First().StartTime, endTime speakerSegments.Last().EndTime }); // 构建纯文本格式纪要 formattedTextBuilder.AppendLine($【发言人{speakerId 1}】); formattedTextBuilder.AppendLine(${speakerText}); formattedTextBuilder.AppendLine(); // 空行分隔 } } string formattedText formattedTextBuilder.ToString().TrimEnd(); string structuredJson JsonSerializer.Serialize(new { speakers structuredEntries, fullText apiResponse.FullText, language apiResponse.Language }); return (formattedText, structuredJson); } } }4.4 控制器与文件上传最后我们把所有服务串联起来的API控制器。// Controllers/TranscribeController.cs using MeetingTranscriber.Models; using MeetingTranscriber.Services; using Microsoft.AspNetCore.Mvc; using Microsoft.EntityFrameworkCore; namespace MeetingTranscriber.Controllers { [ApiController] [Route(api/[controller])] public class TranscribeController : ControllerBase { private readonly IAsrApiService _asrApiService; private readonly ITranscriptProcessorService _processorService; private readonly ApplicationDbContext _dbContext; private readonly ILoggerTranscribeController _logger; public TranscribeController(IAsrApiService asrApiService, ITranscriptProcessorService processorService, ApplicationDbContext dbContext, ILoggerTranscribeController logger) { _asrApiService asrApiService; _processorService processorService; _dbContext dbContext; _logger logger; } [HttpPost(upload)] [RequestSizeLimit(100_000_000)] // 限制上传文件大小为100MB public async TaskIActionResult UploadAndTranscribe(IFormFile audioFile, [FromForm] string meetingTitle) { if (audioFile null || audioFile.Length 0) { return BadRequest(请上传有效的音频文件。); } // 1. 创建数据库记录 var transcriptRecord new MeetingTranscript { MeetingTitle meetingTitle ?? 未命名会议, OriginalFileName audioFile.FileName, Status TranscribeStatus.Processing, CreatedAt DateTime.UtcNow }; await _dbContext.MeetingTranscripts.AddAsync(transcriptRecord); await _dbContext.SaveChangesAsync(); try { // 2. 调用语音转写服务 using var fileStream audioFile.OpenReadStream(); var apiResponse await _asrApiService.TranscribeAudioAsync(fileStream, audioFile.FileName); // 3. 处理后处理结果 var (formattedText, structuredJson) _processorService.ProcessTranscript(apiResponse); // 4. 更新数据库记录 transcriptRecord.TranscriptText formattedText; transcriptRecord.StructuredDataJson structuredJson; transcriptRecord.Status TranscribeStatus.Completed; transcriptRecord.CreatedAt DateTime.UtcNow; // 更新完成时间 await _dbContext.SaveChangesAsync(); // 5. 返回成功结果 return Ok(new { transcriptId transcriptRecord.Id, status completed, title transcriptRecord.MeetingTitle, transcript formattedText, structuredData JsonSerializer.Deserializeobject(structuredJson) // 返回解析后的对象 }); } catch (Exception ex) { _logger.LogError(ex, 处理音频文件 {FileName} 时失败。, audioFile.FileName); // 更新记录状态为失败 transcriptRecord.Status TranscribeStatus.Failed; transcriptRecord.ErrorMessage ex.Message; await _dbContext.SaveChangesAsync(); return StatusCode(500, new { error 语音转写处理失败, details ex.Message }); } } [HttpGet({id})] public async TaskIActionResult GetTranscript(int id) { var transcript await _dbContext.MeetingTranscripts.FindAsync(id); if (transcript null) { return NotFound(); } return Ok(transcript); } } }5. 部署与使用建议代码写好了怎么把它跑起来并且用得顺手呢这里给你几点实用的建议。首先关于部署。你可以把编译好的项目发布到任何支持.NET Core的服务器上比如一台云服务器。记得在服务器上安装好.NET运行时。数据库的连接字符串要在appsettings.json或者环境变量里配置好。最关键的是调用语音转写API的端点和密钥这些信息一定要妥善保管建议用环境变量来管理别直接写在代码里。其次关于使用流程。对于前端你可以做一个非常简单的页面就一个文件选择框、一个会议主题输入框和一个上传按钮。用户选好录音文件填好会议名称一点上传页面就显示“处理中...”。后端处理完成后前端可以轮询或者用WebSocket获取结果然后把生成的会议纪要显示出来提供下载文本或者查看详情。在实际用的时候有几点可以注意一下。一是音频文件格式最好在上传前给用户一些提示比如支持MP3、WAV格式文件大小别超过100M。如果后端需要特定格式可以在接收文件后用NAudio这样的库做一个简单的转换。二是错误处理网络超时、API限流、音频质量太差导致识别失败这些情况都要考虑到给用户一个友好的错误提示。三是性能如果同时上传文件的人多要考虑用消息队列如Azure Service Bus、RabbitMQ把上传请求和耗时的转写任务解耦避免请求堆积。最后这个系统现在只是按声道简单区分发言人。如果你们会议经常是多人共用设备录音想更精确地区分谁在说话可以探索一下API是否支持更先进的说话人分离功能或者在后端集成专门的声纹识别库。数据库里我们存了结构化的JSON就是为了方便以后扩展比如增加按时间点搜索、高亮关键词等功能。6. 总结走完这一趟你会发现用.NET Core来整合AI能力做这样一个自动化的会议纪要系统并没有想象中那么复杂。核心思路很清晰用ASP.NET Core搭建API接收文件用HttpClient去调用现成的、能力强大的语音转写服务然后把返回的结果按照业务逻辑整理、存储下来。我们这次用的Qwen3-ASR-0.6B API省去了自己部署和训练模型的巨大成本让开发者能专注于业务集成。整个代码结构也是典型的.NET分层思想控制器负责协调服务类处理具体业务调用API、处理文本模型类定义数据结构各司其职以后维护和加新功能也方便。当然现在这个系统还是个“雏形”。你可以根据自己团队的实际需要往上加很多功能比如给纪要内容打标签、自动提取会议决议和待办事项这可以结合另一个文本分析API、或者和你们的项目管理工具如Azure DevOps、Jira联动自动创建任务。希望这个例子能给你带来一些启发让你看到在熟悉的.NET生态里也能轻松玩转AI应用解决实际工作中的效率痛点。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2444698.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!