Qwen3-TTS在教育场景落地:AI教师多语种发音训练工具搭建实战

news2026/3/24 20:53:07
Qwen3-TTS在教育场景落地AI教师多语种发音训练工具搭建实战想象一下一位能流利切换十种语言、发音标准、情感饱满的AI教师正在为你的学生进行一对一的发音训练。这不再是科幻电影里的场景而是我们今天就能用Qwen3-TTS-12Hz-1.7B-VoiceDesign模型搭建出来的真实工具。对于教育工作者、语言培训师或者在线教育平台来说制作高质量的多语种发音素材一直是个头疼事。要么成本高昂需要聘请不同母语的配音员要么质量参差不齐合成的语音机械生硬学生听着没兴趣。Qwen3-TTS的出现正好解决了这个痛点。它不仅能合成中文、英文、日文等10种主要语言的语音还能根据文本内容自动调整语调和情感生成自然流畅的“AI教师”声音。今天我就带你一步步搭建一个基于Qwen3-TTS的多语种发音训练工具。无论你是技术小白还是有一定经验的开发者都能跟着这个教程快速上手让你的教育项目拥有一个强大的“多语种发音助手”。1. 环境准备与快速部署1.1 系统要求与准备工作在开始之前确保你的环境满足以下基本要求操作系统Linux推荐Ubuntu 20.04或WindowsWSL2Python版本Python 3.8-3.11内存至少8GB RAM建议16GB以上存储空间至少10GB可用空间网络稳定的网络连接用于下载模型文件如果你使用的是CSDN星图镜像很多环境已经预配置好了可以跳过部分安装步骤。1.2 一键部署Qwen3-TTS最简单的方式是使用Docker快速部署。如果你还没有安装Docker可以先到官网下载安装。# 拉取Qwen3-TTS的Docker镜像 docker pull registry.cn-hangzhou.aliyuncs.com/qwen/qwen3-tts:latest # 运行容器 docker run -d --name qwen3-tts \ -p 7860:7860 \ --gpus all \ registry.cn-hangzhou.aliyuncs.com/qwen/qwen3-tts:latest等待容器启动后在浏览器中打开http://localhost:7860就能看到Web界面了。如果你更喜欢手动安装也可以用pip直接安装# 创建虚拟环境推荐 python -m venv qwen3-tts-env source qwen3-tts-env/bin/activate # Linux/Mac # 或 qwen3-tts-env\Scripts\activate # Windows # 安装Qwen3-TTS pip install qwen3-tts手动安装需要额外下载模型文件Docker方式已经包含了所有依赖对新手更友好。2. 基础概念快速入门2.1 Qwen3-TTS能做什么在深入代码之前我们先搞清楚这个工具的核心能力。Qwen3-TTS-12Hz-1.7B-VoiceDesign不是普通的语音合成工具它有以下几个特别适合教育场景的特点多语种支持覆盖10种主要语言包括中文、英文、日文、韩文、德文、法文、俄文、葡萄牙文、西班牙文和意大利文。这意味着你可以用同一个工具生成不同语言的发音示范。智能语音控制你可以用自然语言告诉它“用欢快的语气读这段英文”或者“用严肃的语调读这个中文句子”模型能理解你的指令并调整语音的情感色彩。低延迟实时生成端到端合成延迟低至97ms几乎感觉不到等待时间。这对于交互式的发音训练应用特别重要学生说完就能立即听到标准的发音示范。高质量语音重建基于先进的语音表征技术生成的语音自然流畅保留了丰富的情感细节听起来不像机器人在说话。2.2 教育场景的应用思路在教育领域这个工具可以帮我们做很多事情多语种发音训练为不同语言的学习者提供标准的发音示范听力材料制作快速生成各种语言的听力理解材料互动教学助手结合其他AI能力创建能说多国语言的虚拟教师个性化学习内容根据学生的学习进度和兴趣生成定制化的语音内容3. 分步实践搭建多语种发音训练工具3.1 Web界面快速上手如果你用的是Docker部署打开浏览器访问http://localhost:7860会看到这样的界面界面主要分为三个区域左侧文本输入区输入你想要合成的文字中部参数设置区选择语言、调整语音参数右侧结果展示区显示生成的音频和相关信息让我们先来一个简单的测试。在文本输入框输入Hello, welcome to our English pronunciation training session.然后在参数设置区选择语言为“English”音色描述可以留空使用默认音色或者输入“friendly female teacher”点击“生成”按钮稍等几秒钟你就能在右侧听到生成的英语发音了。是不是很简单3.2 编程接口调用虽然Web界面很方便但如果我们想把这个功能集成到自己的教育应用中就需要通过编程接口来调用。下面是一个完整的Python示例import torch from qwen3_tts import Qwen3TTS # 初始化模型 model Qwen3TTS.from_pretrained(Qwen/Qwen3-TTS-12Hz-1.7B-VoiceDesign) # 设置设备如果有GPU就用GPU device cuda if torch.cuda.is_available() else cpu model.to(device) # 准备多语种教学文本 teaching_texts { 中文: 同学们好今天我们来学习汉语拼音的发音。, 英文: Good morning class, lets practice English pronunciation together., 日文: こんにちは、日本語の発音練習を始めましょう。, 韩文: 안녕하세요, 한국어 발음 연습을 시작하겠습니다。, 法文: Bonjour tout le monde, commençons notre leçon de français. } # 生成多语种发音示范 for language, text in teaching_texts.items(): print(f正在生成{language}发音示范...) # 设置生成参数 generation_config { text: text, language: language.lower(), # 转换为小写 voice_description: professional teacher tone, # 音色描述 speed: 1.0, # 语速0.5-2.0 emotion: neutral, # 情感neutral, happy, sad, angry等 stream: False # 是否流式生成 } # 生成语音 audio model.generate(**generation_config) # 保存音频文件 output_file fteaching_{language}.wav audio.save(output_file) print(f已保存到: {output_file}) # 如果是流式生成可以实时播放 if generation_config[stream]: print(正在流式播放...) audio.play_stream()这段代码做了几件事加载Qwen3-TTS模型准备了五种语言的数学开场白为每种语言生成发音示范并保存为音频文件展示了如何调整语速、情感等参数3.3 构建交互式发音训练功能一个完整的发音训练工具不仅要有发音示范还要能评估学生的发音。虽然Qwen3-TTS主要负责生成但我们可以结合其他工具构建完整流程import soundfile as sf import numpy as np from qwen3_tts import Qwen3TTS import speech_recognition as sr class PronunciationTrainer: def __init__(self): 初始化发音训练器 self.tts Qwen3TTS.from_pretrained(Qwen/Qwen3-TTS-12Hz-1.7B-VoiceDesign) self.recognizer sr.Recognizer() def generate_pronunciation_example(self, text, languagechinese): 生成标准发音示范 audio self.tts.generate( texttext, languagelanguage, voice_descriptionstandard pronunciation, speed1.0 ) return audio def record_student_pronunciation(self, duration5): 录制学生的发音 with sr.Microphone() as source: print(请开始发音...) self.recognizer.adjust_for_ambient_noise(source) audio_data self.recognizer.record(source, durationduration) print(录制完成) return audio_data def compare_pronunciation(self, reference_text, student_audio): 简单对比发音实际应用中需要更复杂的算法 try: # 将学生录音转换为文本 student_text self.recognizer.recognize_google( student_audio, languageself.get_language_code(chinese) ) # 简单对比实际应用需要音素级对比 similarity self.calculate_similarity(reference_text, student_text) # 生成反馈 if similarity 0.8: feedback 发音很好继续努力。 emotion happy elif similarity 0.6: feedback 还不错但有些地方需要注意。 emotion neutral else: feedback 需要多练习听听标准发音。 emotion encouraging # 用TTS生成反馈语音 feedback_audio self.tts.generate( textfeedback, languagechinese, emotionemotion ) return { similarity: similarity, feedback_text: feedback, feedback_audio: feedback_audio } except sr.UnknownValueError: return {error: 无法识别语音} def get_language_code(self, language): 获取语言代码 codes { chinese: zh-CN, english: en-US, japanese: ja-JP, korean: ko-KR } return codes.get(language, en-US) def calculate_similarity(self, text1, text2): 简单的文本相似度计算示例 # 这里使用简单的字符匹配实际应用应该用更专业的发音评估算法 set1 set(text1.lower()) set2 set(text2.lower()) intersection len(set1.intersection(set2)) union len(set1.union(set2)) return intersection / union if union 0 else 0 # 使用示例 if __name__ __main__: trainer PronunciationTrainer() # 生成标准发音 print(生成标准发音示范...) example_text 你好世界 standard_audio trainer.generate_pronunciation_example(example_text) standard_audio.save(standard.wav) print(标准发音已保存请跟读...) # 录制学生发音 student_audio trainer.record_student_pronunciation(duration3) # 对比评估 result trainer.compare_pronunciation(example_text, student_audio) if error not in result: print(f发音相似度: {result[similarity]:.2%}) print(f教师反馈: {result[feedback_text]}) # 播放反馈 result[feedback_audio].save(feedback.wav) print(反馈语音已保存为 feedback.wav)这个示例展示了如何构建一个简单的交互式发音训练流程。实际应用中你可能需要集成更专业的发音评估算法但基本的框架就是这样。4. 教育场景实战应用4.1 多语种课程内容生成对于语言培训机构或在线教育平台可以批量生成多语种的教学内容import pandas as pd from qwen3_tts import Qwen3TTS from concurrent.futures import ThreadPoolExecutor import time class MultilingualCourseGenerator: def __init__(self): self.tts Qwen3TTS.from_pretrained(Qwen/Qwen3-TTS-12Hz-1.7B-VoiceDesign) def generate_lesson_audio(self, lesson_data): 生成单节课的音频内容 lesson_id lesson_data[lesson_id] language lesson_data[language] texts lesson_data[texts] print(f正在生成第{lesson_id}课 ({language}) 的音频...) audio_files [] for i, text in enumerate(texts): # 根据内容类型调整语音参数 if 练习 in text or 问题 in text: voice_desc encouraging teacher emotion friendly elif 讲解 in text or 说明 in text: voice_desc professional instructor emotion neutral else: voice_desc standard voice emotion neutral # 生成音频 audio self.tts.generate( texttext, languagelanguage, voice_descriptionvoice_desc, emotionemotion, speed0.9 if len(text) 50 else 1.0 # 长文本稍慢 ) # 保存 filename flesson_{lesson_id}_{language}_part{i1}.wav audio.save(filename) audio_files.append(filename) # 避免请求过快 time.sleep(0.5) return { lesson_id: lesson_id, language: language, audio_files: audio_files } def batch_generate(self, course_plan_csv, max_workers3): 批量生成课程音频 # 读取课程计划 df pd.read_csv(course_plan_csv) # 准备任务数据 tasks [] for _, row in df.iterrows(): # 假设CSV包含lesson_id, language, text1, text2, text3... texts [row[ftext{i}] for i in range(1, 6) if pd.notna(row.get(ftext{i}))] tasks.append({ lesson_id: row[lesson_id], language: row[language], texts: texts }) # 使用多线程加速生成 results [] with ThreadPoolExecutor(max_workersmax_workers) as executor: futures [executor.submit(self.generate_lesson_audio, task) for task in tasks] for future in futures: try: result future.result() results.append(result) print(f完成: {result[lesson_id]} - {result[language]}) except Exception as e: print(f生成失败: {e}) # 生成课程清单 self.generate_course_manifest(results) return results def generate_course_manifest(self, results): 生成课程资源清单 manifest [] for result in results: for audio_file in result[audio_files]: manifest.append({ lesson: result[lesson_id], language: result[language], audio_file: audio_file, duration: 待计算 # 可以实际计算时长 }) df_manifest pd.DataFrame(manifest) df_manifest.to_csv(course_audio_manifest.csv, indexFalse) print(f课程清单已保存共{len(manifest)}个音频文件) # 使用示例 if __name__ __main__: generator MultilingualCourseGenerator() # 假设有一个CSV文件包含课程内容 # 可以先生成一个示例CSV sample_data { lesson_id: [1, 1, 2, 2], language: [chinese, english, chinese, japanese], text1: [欢迎来到中文发音课程, Welcome to English pronunciation course, 今天学习汉语拼音, 今日は日本語の発音を学びます], text2: [请跟我一起读, Please read after me, 注意声调的变化, アクセントに注意してください], text3: [很好继续努力, Good job, keep going, 练习第三声, 第三声を練習しましょう] } df_sample pd.DataFrame(sample_data) df_sample.to_csv(sample_course_plan.csv, indexFalse) # 批量生成 print(开始批量生成课程音频...) results generator.batch_generate(sample_course_plan.csv) print(f生成完成共{len(results)}节课的音频)4.2 个性化学习路径生成基于学生的学习进度和薄弱环节动态生成个性化的发音训练内容import json from datetime import datetime from qwen3_tts import Qwen3TTS class PersonalizedLearningAssistant: def __init__(self, student_id): self.student_id student_id self.tts Qwen3TTS.from_pretrained(Qwen/Qwen3-TTS-12Hz-1.7B-VoiceDesign) self.learning_history self.load_history() def load_history(self): 加载学生的学习历史 try: with open(fstudent_{self.student_id}_history.json, r) as f: return json.load(f) except FileNotFoundError: return { student_id: self.student_id, language_focus: {}, weak_points: {}, practice_sessions: [], progress: {} } def save_history(self): 保存学习历史 with open(fstudent_{self.student_id}_history.json, w) as f: json.dump(self.learning_history, f, indent2) def analyze_weak_points(self, practice_results): 分析学生的薄弱环节 # 假设practice_results包含每次练习的详细数据 weak_points {} for result in practice_results: language result[language] score result[score] details result.get(details, {}) if language not in weak_points: weak_points[language] [] # 找出得分低的项目 for item, item_score in details.items(): if item_score 0.7: # 低于70%正确率 weak_points[language].append({ item: item, score: item_score, timestamp: datetime.now().isoformat() }) self.learning_history[weak_points] weak_points self.save_history() return weak_points def generate_personalized_exercises(self, language, count5): 生成个性化练习 weak_points self.learning_history[weak_points].get(language, []) exercises [] if weak_points: # 针对薄弱环节生成练习 print(f检测到{len(weak_points)}个薄弱点生成针对性练习...) for i, weak_point in enumerate(weak_points[:count]): item weak_point[item] # 根据薄弱点类型生成不同的练习文本 if 声调 in item or tone in item.lower(): text self.generate_tone_exercise(language) elif 元音 in item or vowel in item.lower(): text self.generate_vowel_exercise(language) elif 辅音 in item or consonant in item.lower(): text self.generate_consonant_exercise(language) else: text self.generate_general_exercise(language) exercises.append({ exercise_id: f{language}_ex_{i1}, type: targeted, focus_area: item, text: text, instructions: f请特别注意{item}的发音 }) else: # 没有薄弱点生成常规练习 print(没有检测到明显薄弱点生成常规练习...) for i in range(count): text self.generate_general_exercise(language) exercises.append({ exercise_id: f{language}_ex_{i1}, type: general, text: text, instructions: 请跟读以下句子 }) # 为每个练习生成语音示范 for exercise in exercises: audio self.tts.generate( textexercise[text], languagelanguage, voice_descriptionpatient tutor, speed0.8 # 练习语速稍慢 ) audio_file f{exercise[exercise_id]}_demo.wav audio.save(audio_file) exercise[audio_demo] audio_file return exercises def generate_tone_exercise(self, language): 生成声调练习 exercises_by_language { chinese: [ 妈妈骂马马慢妈妈骂马慢。, 四是四十是十十四是十四四十是四十。, 坡上立着一只鹅坡下就是一条河。 ], english: [ She sells seashells by the seashore., How can a clam cram in a clean cream can?, I scream, you scream, we all scream for ice cream. ] } import random return random.choice(exercises_by_language.get(language, [请跟读练习])) def generate_vowel_exercise(self, language): 生成元音练习 exercises_by_language { english: [ The rain in Spain stays mainly in the plain., How now brown cow., I like to ride my bike by the lake. ], japanese: [ あおいそら、あかいはな。, うみのなか、さかなたくさん。, えきまで、あるいてきます。 ] } import random return random.choice(exercises_by_language.get(language, [请跟读练习])) def generate_consonant_exercise(self, language): 生成辅音练习 exercises_by_language { english: [ Peter Piper picked a peck of pickled peppers., Fuzzy Wuzzy was a bear. Fuzzy Wuzzy had no hair., Betty Botter bought some butter. ], korean: [ 가나다라마바사아자차카타파하, 기역니은디귿리을미음비읍시옷, 아야어여오요우유으이 ] } import random return random.choice(exercises_by_language.get(language, [请跟读练习])) def generate_general_exercise(self, language): 生成常规练习 exercises_by_language { chinese: [ 今天天气很好我们一起去公园吧。, 我喜欢学习中文中文很有意思。, 请问去火车站怎么走 ], english: [ Good morning, how are you today?, I would like to order a cup of coffee., Could you tell me the way to the library? ], japanese: [ おはようございます、今日もよろしくお願いします。, すみません、駅はどこですか, 私は日本語を勉強しています。 ] } import random return random.choice(exercises_by_language.get(language, [请跟读练习])) # 使用示例 if __name__ __main__: # 创建个性化学习助手 student_id stu_001 assistant PersonalizedLearningAssistant(student_id) # 假设有一些练习结果 practice_results [ { language: chinese, score: 0.65, details: { 声调: 0.5, 元音: 0.8, 辅音: 0.7 } } ] # 分析薄弱点 weak_points assistant.analyze_weak_points(practice_results) print(f薄弱点分析: {weak_points}) # 生成个性化练习 exercises assistant.generate_personalized_exercises(chinese, count3) print(\n生成的个性化练习:) for i, ex in enumerate(exercises, 1): print(f{i}. {ex[text]}) print(f 重点: {ex.get(focus_area, 常规练习)}) print(f 音频: {ex[audio_demo]}) print()5. 实用技巧与优化建议5.1 提升语音质量的技巧在实际使用中你可能发现有些文本生成的语音不够自然。这里有几个小技巧可以提升质量调整语速和停顿# 对于长句子适当放慢语速并添加停顿 text 首先我们要注意发音的准确性停顿然后要注意语调的变化停顿最后要练习流畅度。 audio tts.generate( texttext, languagechinese, speed0.9, # 稍慢的语速 # 模型会自动识别标点符号添加停顿 )使用情感指令# 不同的教学内容适合不同的情感 teaching_scenarios { 鼓励: (做得很好继续加油, encouraging, happy), 纠正: 这个发音不太准确请注意听示范。, instructional, neutral), 讲解: (汉语有四个声调分别是平、上、去、入。, professional, neutral), 提问: (你能重复一遍吗, friendly, curious) } for scenario, (text, voice_desc, emotion) in teaching_scenarios.items(): audio tts.generate( texttext, languagechinese, voice_descriptionvoice_desc, emotionemotion )5.2 批量处理优化如果需要生成大量音频可以考虑以下优化import concurrent.futures import time from tqdm import tqdm # 进度条库 def batch_generate_audio(text_list, language, output_diroutput): 批量生成音频文件 results [] # 使用线程池并行处理 with concurrent.futures.ThreadPoolExecutor(max_workers4) as executor: # 准备任务 future_to_text {} for i, text in enumerate(text_list): future executor.submit( generate_single_audio, texttext, languagelanguage, filenamef{output_dir}/audio_{i:03d}.wav ) future_to_text[future] (i, text) # 处理结果 with tqdm(totallen(text_list), desc生成进度) as pbar: for future in concurrent.futures.as_completed(future_to_text): i, text future_to_text[future] try: result future.result() results.append((i, text, result)) except Exception as e: print(f生成失败 {i}: {e}) results.append((i, text, None)) finally: pbar.update(1) return sorted(results, keylambda x: x[0]) def generate_single_audio(text, language, filename): 生成单个音频文件 # 这里可以添加重试逻辑 for attempt in range(3): try: audio tts.generate( texttext, languagelanguage, voice_descriptionstandard, emotionneutral ) audio.save(filename) return filename except Exception as e: if attempt 2: # 最后一次尝试 raise e time.sleep(1) # 等待后重试5.3 资源管理与监控在生产环境中使用还需要考虑资源管理import psutil import time from datetime import datetime class ResourceMonitor: def __init__(self, tts_model): self.model tts_model self.usage_log [] def monitor_generation(self, text, **kwargs): 监控资源使用情况的生成函数 start_time time.time() # 记录开始时的资源使用 start_memory psutil.virtual_memory().used start_cpu psutil.cpu_percent() # 生成音频 audio self.model.generate(texttext, **kwargs) # 记录结束时的资源使用 end_time time.time() end_memory psutil.virtual_memory().used end_cpu psutil.cpu_percent() # 记录日志 log_entry { timestamp: datetime.now().isoformat(), text_length: len(text), duration: end_time - start_time, memory_used_mb: (end_memory - start_memory) / 1024 / 1024, cpu_percent: end_cpu - start_cpu, language: kwargs.get(language, unknown) } self.usage_log.append(log_entry) # 如果资源使用过高发出警告 if log_entry[duration] 5.0: # 超过5秒 print(f警告: 生成时间过长 ({log_entry[duration]:.2f}秒)) return audio def generate_report(self): 生成资源使用报告 if not self.usage_log: return 暂无使用数据 total_generations len(self.usage_log) avg_duration sum(log[duration] for log in self.usage_log) / total_generations avg_memory sum(log[memory_used_mb] for log in self.usage_log) / total_generations report f 资源使用报告: 总生成次数: {total_generations} 平均生成时间: {avg_duration:.2f}秒 平均内存使用: {avg_memory:.2f} MB 最近10次生成: for log in self.usage_log[-10:]: report f\n {log[timestamp]}: {log[duration]:.2f}秒, {log[memory_used_mb]:.1f}MB return report # 使用示例 monitor ResourceMonitor(tts_model) # 使用监控的生成函数 audio monitor.monitor_generation( text这是一个测试句子, languagechinese, voice_descriptiontest ) # 查看报告 print(monitor.generate_report())6. 总结通过今天的实战我们完成了一个基于Qwen3-TTS的多语种发音训练工具的搭建。从环境部署到实际应用我们一步步实现了核心功能实现我们搭建了一个能够生成10种语言标准发音的AI教师系统可以根据教学需要生成不同情感、不同语速的语音示范。教育场景适配针对教育场景的特殊需求我们设计了发音对比、个性化练习生成、批量课程内容制作等实用功能让AI真正成为教学助手。性能优化实践通过批量处理、资源监控、错误重试等机制确保系统在实际使用中的稳定性和效率。实际应用价值这个工具可以帮助教育工作者节省大量录制音频的时间为不同语言水平的学生提供个性化的发音训练让语言学习更加高效有趣。Qwen3-TTS的强大之处在于它的多语种支持和智能语音控制能力。在教育场景中这意味着我们可以用同一套系统服务不同语言的学习者根据每个人的需求生成定制化的学习内容。如果你正在开发教育类应用或者需要为你的产品添加多语种语音功能Qwen3-TTS是一个值得考虑的选择。它的易用性和强大功能能让你的项目快速拥有高质量的语音合成能力。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2440892.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…