基于AI Agent与语音技术的自动化电话系统构建指南

news2026/5/7 3:22:43
1. 项目概述当AI拿起电话它能做什么最近在GitHub上看到一个挺有意思的项目叫theopsio/ai-phone-caller。光看名字你可能会觉得这又是一个“AI打电话”的玩具但当我深入扒了扒它的代码和设计思路后发现事情没那么简单。这玩意儿本质上是一个基于语音AI的自动化电话交互系统它试图让一个AI程序能够像真人一样通过电话网络拨打电话、进行多轮对话、理解对方意图并执行预设任务。想象一下这样的场景你开了一家小餐馆每天下午需要给预订了晚餐的客人打电话确认。或者你是一个小团队的负责人需要定期跟进项目进度收集成员的简要汇报。这些重复、琐碎但又需要一定沟通技巧的电话任务现在可以交给这个AI来完成了。它不是一个简单的语音播报机器人而是能够倾听、理解上下文、并做出合理回应的“智能坐席”。这个项目瞄准的正是自动化那些低复杂度、高重复性的外呼沟通场景将人从机械的对话中解放出来去做更有价值的事情。对于开发者、创业者或是任何对语音AI和自动化感兴趣的人来说理解其背后的原理和实现方式都极具参考价值。2. 核心架构与工作原理拆解要理解ai-phone-caller如何工作我们需要把它拆解成几个核心模块。它的架构可以看作一个精心设计的流水线每个环节都承担着特定的任务共同完成一次“拟人化”的通话。2.1 模块化设计从拨号到挂断的旅程整个系统大致可以分为五个核心阶段任务调度与发起这是起点。系统需要知道打给谁电话号码、为什么打任务类型如“预约确认”、“信息收集”、以及对话的蓝图初始话术和流程逻辑。通常这会通过一个API接口、一个配置文件或者一个任务队列来触发。电话通道连接这是与真实电话网络PSTN或互联网语音VoIP对接的桥梁。项目不会自己建立运营商级别的通信网络而是集成成熟的云通信平台API比如Twilio、Plivo、国内的腾讯云、阿里云呼叫中心等。这个模块负责发起呼叫请求并将建立好的语音流进行中转。实时语音处理这是技术核心。它包含两个方向的处理语音转文本STT将接听方说的每一句话实时转换成文字。这需要低延迟、高准确率的语音识别服务例如Google Cloud Speech-to-Text, Whisper (OpenAI)或阿里云的实时语音识别。文本转语音TTS将AI生成的文字回复转换成自然、流畅的语音播放给对方。这同样依赖云服务如Google Text-to-Speech、Amazon Polly或 ElevenLabs 这类能生成带情感语音的服务。对话大脑AI Agent这是系统的“智能”所在。它接收STT转换后的文字结合当前对话的历史上下文和预设的任务目标理解用户的意图然后决定如何回复。这里通常是调用大语言模型LLM的API比如GPT-4、Claude或开源的Llama 3等。LLM负责生成符合语境、推动对话向目标前进的文本。状态管理与流程控制这个模块像导演掌控着整个对话的节奏和生命周期。它定义对话流程例如问候 - 询问是否方便 - 说明来意 - 提问 - 确认信息 - 结束判断对话是否应该继续、跳转到某个环节还是满足结束条件如成功收集到信息、对方明确拒绝、超时后礼貌挂断。2.2 关键技术栈选型背后的逻辑为什么项目会选择这样的技术组合这背后有非常实际的考量通信平台如Twilio自己处理电话信令、编码、运营商对接是极其复杂且受监管的。使用成熟平台只需几行代码调用API即可实现全球拨号它们还提供了稳定的语音流、通话事件振铃、接听、挂断回调以及合规性保障这是快速搭建原型的基石。语音AI服务STT/TTS虽然可以部署开源模型如Whisper但在实时通话场景下云服务在延迟、准确率和并发稳定性上通常更有优势。选择支持流式识别的STT服务至关重要因为AI需要“边听边想”而不是等对方说完一整段再处理。大语言模型LLM这是对话质量的灵魂。项目需要LLM具备以下能力指令跟随严格按预设的角色如“客服专员”和任务目标进行对话。上下文理解记住之前对话的内容避免重复提问或出现逻辑矛盾。意图识别与实体抽取能从用户散乱的回答中准确提取关键信息如时间、地点、姓名、选择项。可控的生成避免跑题、不说无关内容、并能被引导至流程的下一节点。 因此在提示词Prompt工程上需要下很大功夫设计出包含系统指令、流程状态、对话历史的完整提示模板。注意实时性是整个系统的生命线。从用户说完一句话到AI给出语音回应这个延迟最好控制在1-2秒以内否则对话会显得非常卡顿和不自然。这就要求STT、LLM推理、TTS三个环节都必须优化延迟并且网络传输要稳定。3. 从零开始搭建你自己的AI电话呼叫系统理解了原理我们来看看如何动手实现一个简化版本。这里我将以使用Twilio通信、OpenAI Whisper GPT-4AI、以及FastAPIWeb服务为例勾勒出核心的实现步骤。请注意以下代码为示意性片段完整项目请参考theopsio/ai-phone-caller的源码。3.1 环境准备与依赖安装首先你需要注册并获取以下服务的API密钥Twilio获取ACCOUNT_SID,AUTH_TOKEN, 并购买一个具有通话能力的电话号码Twilio Phone Number。OpenAI获取OPENAI_API_KEY确保有权限访问GPT-4和Whisper API。Python环境建议使用Python 3.9并创建虚拟环境。安装核心Python库pip install twilio openai fastapi uvicorn websockets pydubtwilio: 用于与Twilio API交互处理呼叫。openai: 调用GPT和Whisper。fastapiuvicorn: 构建提供Webhook的API服务器。websockets: 用于处理双向语音流如果使用Twilio Media Streams。pydub: 音频格式处理。3.2 构建Webhook服务器Twilio在通话事件发生时如有人接听会向一个你指定的公网URLWebhook发送HTTP请求。因此我们需要一个能被互联网访问的服务器。核心端点/call当有人拨打你的Twilio号码时Twilio会请求这个端点询问“接下来该怎么办”。我们需要回复一个TwiMLTwilio标记语言指令告诉Twilio接通电话并建立媒体流。from fastapi import FastAPI, Request from twilio.twiml.voice_response import VoiceResponse, Connect, Stream app FastAPI() app.post(/call) async def handle_incoming_call(request: Request): Twilio呼叫接入的Webhook vr VoiceResponse() # 告诉Twilio将通话连接到一个名为my-media-stream的WebSocket流 connect Connect() stream Stream(urlfwss://{你的域名}/media-stream) connect.append(stream) vr.append(connect) return Response(contentstr(vr), media_typeapplication/xml)核心端点/media-stream(WebSocket)这是真正的“通话大脑”。Twilio将通过WebSocket协议将双向的音频流PCMU/PCMA格式推送到这个端点。我们需要在这里处理音频流。from fastapi import WebSocket, WebSocketDisconnect import json import asyncio import base64 import openai app.websocket(/media-stream) async def websocket_endpoint(websocket: WebSocket): await websocket.accept() try: async for message in websocket.iter_text(): data json.loads(message) event data.get(event) if event media: # 收到音频数据包 audio_chunk base64.b64decode(data[media][payload]) # 这里需要将音频片段缓存起来凑成一定时长如1秒后发送给Whisper进行转录 await process_audio_chunk(audio_chunk, websocket) elif event start: print(媒体流开始) # 可以在这里让AI说出第一句话例如问候语 greeting_text 您好我是AI助手请问现在方便通话吗 await text_to_speech_and_stream(greeting_text, websocket) except WebSocketDisconnect: print(客户端断开连接)3.3 实现核心对话循环这是最复杂的部分我们需要管理一个状态机并串联起STT、LLM、TTS。# 简化的对话状态管理 class CallConversation: def __init__(self): self.history [] # 存储对话历史[{role: user, content: ...}, {role: assistant, content: ...}] self.state greeting # 状态机greeting - confirm_identity - ask_question - confirm_answer - closing self.collected_data {} async def process_user_speech(self, audio_data: bytes): 1. 语音转文本 # 将音频数据保存为临时文件或直接传入OpenAI Whisper API支持音频字节流 transcript await transcribe_audio_with_whisper(audio_data) if not transcript.strip(): return self.history.append({role: user, content: transcript}) 2. 根据状态和对话历史生成LLM提示词 prompt self._build_prompt_for_llm() 3. 调用LLM获取回复 llm_response await call_gpt4(prompt) # 从LLM回复中可能还需要解析出下一个状态指令例如[STATE:ask_question] ai_text, next_state self._parse_llm_response(llm_response) self.state next_state self.history.append({role: assistant, content: ai_text}) 4. 文本转语音并流式回传给Twilio await stream_audio_to_twilio(ai_text, websocket) def _build_prompt_for_llm(self): # 这是一个简化的Prompt示例 system_prompt f 你是一个专业的电话客服AI。当前对话阶段是{self.state}。 你的任务是进行预约确认。你需要收集的信息包括客户姓名、预约时间、人数。 对话历史如下 {self.history} 请根据当前阶段和对话历史生成自然、专业、简洁的下一句回复。回复后请用括号注明下一个状态例如[STATE:ask_question]。 return system_prompt关键函数实现示意import openai import aiohttp async def transcribe_audio_with_whisper(audio_bytes: bytes) - str: # 注意Whisper API 通常接受文件对于流式可能需要缓存到临时文件 # 或者使用支持流式传输的Whisper本地部署 with open(temp_audio.wav, wb) as f: f.write(audio_bytes) with open(temp_audio.wav, rb) as audio_file: transcript openai.Audio.transcribe(whisper-1, audio_file) return transcript.text async def call_gpt4(prompt: str) - str: response openai.ChatCompletion.create( modelgpt-4, messages[{role: system, content: prompt}], temperature0.7, # 温度不宜过高保持回复稳定性 max_tokens150 ) return response.choices[0].message.content async def stream_audio_to_twilio(text: str, websocket: WebSocket): # 使用TTS服务如OpenAI TTS或ElevenLabs将文本转为音频字节 audio_bytes await generate_speech_with_tts(text) # 将音频字节按照Twilio Media Stream要求的格式Base64编码的mulaw音频封装成JSON消息发送 media_message { event: media, media: { payload: base64.b64encode(audio_bytes).decode(utf-8) } } await websocket.send_json(media_message)3.4 部署与测试本地隧道开发时可以使用ngrok或localtunnel将本地服务器暴露一个公网URL填入Twilio的Webhook配置中。服务器部署生产环境可以将FastAPI应用部署在云服务器如AWS EC2、Google Cloud Run或容器平台并配置好域名和SSL证书WebSocket要求wss协议。Twilio控制台配置在你的Twilio号码配置中将“有来电时”的Webhook指向你部署好的/call端点URL。测试用手机拨打你的Twilio号码理论上就能听到AI的问候并开始对话了。4. 深入核心对话状态机与提示词工程要让AI通话不像个智障关键在于精细设计的对话流程和高度优化的提示词。ai-phone-caller项目的精髓也在于此。4.1 设计健壮的对话状态机一个简单的预约确认流程其状态机可能如下开始 | v [Greeting] 问候并自我介绍 | (用户回应) v [ConfirmIntent] 确认通话意图“是关于明天的预约吗” | (用户肯定) v [AskName] 询问姓名 | (用户提供姓名) - 提取并存储 v [AskTime] 确认预约时间 | (用户提供时间) - 提取并存储 v [AskPartySize] 询问人数 | (用户提供人数) - 提取并存储 v [Summarize] 复述所有信息以供确认 | (用户确认) v [Closing] 感谢并结束通话 | v 结束每个状态都需要处理多种用户输入肯定/否定用户说“是的”、“对”、“没错”或“不是”、“没有”。提供信息用户直接说出了所需信息“我叫张三”、“晚上7点”、“3个人”。提问用户反问“你们营业到几点”。模糊/无关回答用户答非所问“今天天气不错”。请求重复用户说“没听清再说一遍”。明确拒绝/挂断意向用户说“不需要了谢谢”或直接沉默。状态机的设计必须包含对这些分支的处理逻辑决定是停留在当前状态、跳转到错误处理状态、还是推进到下一状态。这通常通过分析LLM的回复或者结合独立的意图分类模型来实现。4.2 构建高效的LLM提示词模板提示词是操控LLM行为的“遥控器”。一个用于电话AI的提示词模板通常包含以下部分SYSTEM_PROMPT_TEMPLATE 你是一个{role}正在执行{task}任务。你的声音听起来自然、友好、专业。 **当前对话状态**{current_state} **已收集的信息**{collected_info} **对话历史**最近3轮 {conversation_history} **你的行为准则** 1. 每次回复尽量简短控制在1-2句话内。 2. 严格根据当前状态引导对话。不要跳跃状态。 3. 如果用户提供了{current_state}所需的信息请先确认例如“好的您预约的时间是晚上7点。”然后自然过渡到下一个状态{next_state}。 4. 如果用户没有提供所需信息用另一种方式友好地再问一次。 5. 如果用户明确拒绝或表示不感兴趣礼貌结束通话。 6. 如果用户提问超出你的知识范围请表示无法回答并引导回主题。 7. 在回复的最后用标记标明你判断的下一个状态格式为[STATE:{next_state}]。 请生成你的回复 实操心得角色扮演要具体不要说“你是助手”要说“你是XX餐厅的预订确认专员小A”。状态和信息要显式注入让LLM明确知道“现在到哪一步了”和“已经知道什么”。历史窗口不宜过长电话对话通常较短提供最近3-5轮历史即可避免token浪费和上下文混淆。输出格式必须结构化强制LLM在回复中包含状态标记如[STATE:ask_time]这样后端代码可以可靠地解析驱动状态机流转。这是实现稳定自动化控制的关键。温度Temperature设置对于任务型对话温度建议设置在0.5-0.8之间平衡一致性和灵活性。太高容易导致回复随机太低则显得机械。5. 性能优化与成本控制实战一个可用的原型和一個可用的生产系统之间隔着性能和成本的鸿沟。5.1 降低延迟让对话更“实时”延迟是用户体验的杀手。优化可以从以下几个层面入手音频处理优化本地VAD语音活动检测不要在Twilio端做简单的静音检测可以在服务端集成如WebRTC VAD或Silero VAD。当检测到用户开始说话时立即开始缓存音频检测到说话结束立即发送给STT。这比等固定间隔或依赖Twilio的静音检测更及时。音频编码与分片Twilio传输的是mu-law编码音频。直接将其发送给Whisper可能需转码。优化方案是流式接收后在内存中实时拼接、转码如用pydub凑够一定时长如300ms就发送一次而不是等一整句说完。STT服务优化流式识别API务必使用STT服务提供的流式识别接口如Google Speech-to-Text的streamingRecognize。它允许你边发送音频边获取中间转录结果实现“逐字稿”效果显著降低端到端延迟。模型选择选择延迟更低的专用模型而非通用大模型。例如有些服务提供“电话音频优化”模型。LLM推理优化使用更快的模型如果任务简单可以尝试GPT-3.5-Turbo它的响应速度通常快于GPT-4。提示词精简去除提示词中所有不必要的描述压缩历史消息。设置合理的max_tokens限制AI回复的长度避免生成冗长内容。缓存对于常见的用户问答如“你们地址在哪”可以设计缓存机制直接返回预设答案绕过LLM调用。TTS优化流式合成类似STT使用支持流式音频输出的TTS服务生成第一个音频片段后立即开始播放而不是等整句话合成完毕。预生成常用语将问候语、确认语、结束语等固定话术预先合成音频文件并缓存通话时直接播放实现零延迟。5.2 控制成本让项目可持续AI API的调用费用尤其是GPT-4和高质量TTS可能是主要成本。用量监控与预算为每个API密钥设置严格的用量告警和月度预算。对话长度管理超时控制设置单轮对话和总通话时长上限如无响应30秒自动挂断总时长不超过3分钟。主动引导在提示词中强调“回复简短”避免AI滔滔不绝。无效对话中断当检测到用户长时间无意义回应或明确拒绝时快速进入结束流程。模型降级策略分层模型核心流程用GPT-4保证质量但对于简单的确认、问候或错误处理可以降级到GPT-3.5-Turbo甚至规则引擎。本地小模型对于意图识别、实体提取这类特定任务可以尝试部署开源的、参数量较小的专用模型如用BERT微调替代部分LLM调用。音频处理成本STT/TTS按时长计费。优化音频采样率电话语音8kHz通常足够和编码格式减少数据量。评估不同供应商的价格例如Whisper API、Google Speech-to-Text、Azure Speech Services的成本可能差异很大。6. 避坑指南与常见问题排查在实际开发和部署中我踩过不少坑这里总结一下希望能帮你节省时间。6.1 开发与调试阶段问题1Twilio媒体流连接失败错误码1006或连接立即关闭。排查这几乎总是WebSocket服务器的问题。确保你的服务器支持WSS(WebSocket Secure) 协议且SSL证书有效。WebSocket端点路径正确且服务器正确处理了Twilio的Upgrade请求。检查服务器防火墙和云服务商安全组确保端口通常是443对Twilio的IP地址范围开放。工具使用wscat命令行工具或在线WebSocket测试客户端先手动测试你的WSS端点是否能正常连接和收发消息。问题2音频播放有杂音、断断续续或语速异常。排查编码格式不匹配Twilio Media Stream 默认使用8位μ-law (PCMU) 编码8000Hz采样率。你的TTS服务输出的音频格式必须与此匹配或进行正确的转码。使用pydub或ffmpeg进行重采样和编码转换。音频分片错误确保你发送给Twilio的每个media消息中的音频载荷payload是完整的、连续的音频片段且时间戳如果使用track参数是连续的。网络抖动在发送音频消息时可以考虑加入简单的流量控制避免在极短时间内发送大量数据包导致网络拥塞。问题3LLM回复不符合预期经常跑题或状态混乱。排查检查提示词将你构建的完整提示词和对话历史打印出来仔细阅读。是不是系统指令不够清晰状态描述模糊历史信息太多导致模型混淆验证状态解析逻辑确保你从LLM回复中提取状态标记的代码是健壮的。使用正则表达式精确匹配并做好错误处理如匹配失败时默认回退到某个安全状态。温度与随机种子尝试降低temperature如0.3并设置seed参数以获得更确定性的输出。6.2 生产环境部署问题4并发量稍大系统响应变慢或崩溃。解决无状态设计将会话状态对话历史、收集的信息存储在外部缓存如Redis中而不是内存里。这样Web服务器可以水平扩展。异步非阻塞确保整个处理链路接收音频、调用STT/LLM/TTS API都使用异步IO如asyncio,aiohttp避免阻塞事件循环。连接池与限流对OpenAI等外部API使用连接池并为每个API设置合理的速率限制防止瞬时请求过多被限流或导致自身服务器资源耗尽。监控与告警部署APM工具如Prometheus, Grafana监控API延迟、错误率和服务器资源。设置告警阈值。问题5如何处理用户中途长时间沉默或背景噪音解决实现一个“心跳”或“超时”机制。在WebSocket连接中如果一段时间如20秒没有收到任何用户语音VAD检测为静音和可识别的STT结果AI应主动发言例如“您好您还在吗如果方便请告诉我...”。如果连续2-3次主动询问无果则播放结束语并挂断。对于背景噪音可以在音频发送给STT前尝试使用简单的音频滤波库进行降噪预处理提升识别准确率。问题6法律与合规风险。注意这是重中之重。通话录音告知在通话开始时必须明确告知对方“本次通话可能会被录音用于服务质量提升”并确保在法规要求内。拒接名单必须提供并尊重“请勿来电”名单。在拨打前校验号码。拨打时间遵守当地的电话营销时间规定例如非工作时间不得拨打。数据隐私收集的用户信息如姓名、时间必须妥善存储、加密并明确告知用户用途不得滥用。最好咨询法律专业人士确保你的应用符合 GDPR、CCPA 或当地相关法律法规。这个项目打开了一扇门让我们看到了语音AI在自动化流程中的巨大潜力。从技术上看它是对现有云服务API的一次创造性整合从应用上看它为解决那些简单但耗时的沟通任务提供了新思路。当然它目前还不完美在复杂对话、强噪音环境、以及成本控制上仍有挑战。但作为一个开源项目它提供了一个极佳的学习范本。你可以基于它为自己的特定场景定制对话流程优化提示词甚至替换更便宜的AI组件。技术永远在迭代而将技术转化为解决实际问题的工具才是最有价值的部分。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2590220.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…