GTE-Pro企业级语义智能实战:从模型加载到热力评分可视化的完整链路

news2026/4/4 15:47:40
GTE-Pro企业级语义智能实战从模型加载到热力评分可视化的完整链路1. 引言告别关键词匹配拥抱语义理解想象一下你是一个新员工想查一下公司怎么报销餐费。你打开公司的知识库输入“怎么报销吃饭的发票”。如果系统只认关键词它可能会给你一堆包含“发票”、“报销”但完全不相关的文档比如“差旅发票邮寄流程”或者“办公用品采购发票规定”。你得自己从一堆结果里大海捞针。这就是传统关键词匹配的尴尬。它只认字不认意思。今天要聊的GTE-Pro就是为了解决这个问题而生的。它不是一个简单的搜索框而是一个能“听懂人话”的企业级语义智能引擎。它的核心是基于阿里达摩院开源的GTE-Large模型。这个模型有多厉害呢它在衡量文本嵌入模型能力的权威榜单MTEB的中文榜上长期名列前茅。简单来说GTE-Pro能把任何一段文字无论是你的问题还是海量的公司文档变成一个由1024个数字组成的“向量指纹”。这个指纹包含了这段话的核心意思。当你要搜索时它不再傻傻地匹配“发票”这个词而是去计算你的问题指纹和所有文档指纹之间的“意思相似度”。这样即使文档里写的是“餐饮发票必须在消费后7天内提交”而你的问题是“吃饭的票怎么报”它也能精准地帮你找到正确答案。这篇文章我就带你从零开始手把手走一遍GTE-Pro的完整实战链路怎么把模型跑起来怎么用它处理你的数据怎么搭建一个能实时搜索的系统最后怎么把AI的“思考过程”用热力评分的方式直观地展示给你看。整个过程数据都在你自己的服务器上安全可控。2. 核心原理文本如何变成机器能懂的“向量指纹”在深入代码之前我们先花几分钟搞明白GTE-Pro到底是怎么工作的。理解了原理后面的操作就会清晰很多。2.1 从关键词到语义一次认知升级传统的搜索比如你用百度或者公司内部的文档管理系统核心是“倒排索引”。它先把所有文档拆成一个个词“发票”、“报销”、“吃饭”然后建立一个词到文档的映射表。你搜“发票 报销”系统就把同时包含这两个词的文档找出来。这种方法很快但很“笨”。它无法理解“吃饭”和“餐饮”是近义词更无法理解“服务器崩了”和“检查Nginx负载均衡”之间的因果关系。语义检索则是一次彻底的升级。它的核心思想是把文本映射到一个高维的数学空间向量空间里在这个空间里意思相近的文本它们的“位置”也靠得很近。2.2 GTE模型文本的“翻译官”GTE (General Text Embedding) 模型就是这个神奇的“翻译官”。它经过海量文本数据的训练学会了如何把一段人类语言翻译成一个固定长度比如1024维的向量。这个过程可以粗略地理解为输入一段文本例如“怎么报销吃饭的发票”编码模型内部的神经网络通常是Transformer结构逐词分析文本考虑每个词的上下文关系最终汇聚成对整个句子含义的理解。输出一个1024维的向量例如[0.12, -0.45, 0.78, ..., 0.03]。这个向量就是这段文本的“语义指纹”。关键点经过良好训练的模型会让语义相似的句子其对应的向量在空间中的“距离”非常近。计算两个向量距离最常用的方法就是余弦相似度。值越接近1表示意思越相似越接近0表示越不相关。2.3 实战流程全景图基于这个原理构建一个完整的语义检索系统通常包含两个阶段离线索引阶段读取你所有的知识文档PDF、Word、TXT等。用GTE模型将所有文档转换成向量。将这些“文档向量”存入一个专门的向量数据库中并建立快速索引。在线检索阶段用户输入一个问题Query。用同一个GTE模型将问题也转换成向量。在向量数据库中快速查找与“问题向量”最相似的Top K个“文档向量”即余弦相似度最高的几个。返回对应的文档片段并附上相似度分数。GTE-Pro项目就是把这一整套流程包括模型服务、向量数据库、前端界面都打包好了让你能开箱即用。接下来我们就进入实战环节。3. 环境部署与模型加载理论说得再多不如动手跑一跑。这一章我们来看看如何快速把GTE-Pro环境搭起来并把核心的GTE模型加载好。3.1 一键启动最简单的体验方式如果你只是想快速体验效果GTE-Pro提供了最便捷的Docker Compose方式。确保你的机器已经安装了Docker和Docker Compose。# 1. 克隆项目代码假设你已经有git git clone 项目仓库地址 cd GTE-Pro # 2. 一键启动所有服务模型服务、向量数据库、Web界面 docker-compose up -d执行完上述命令后系统会开始拉取镜像并启动三个核心服务模型服务加载GTE-Large模型提供文本转向量的API。向量数据库如Qdrant/Weaviate存储和检索向量。前端Web服务提供交互界面。启动完成后打开浏览器访问http://你的服务器IP:8501具体端口请查看项目README你就能看到搜索界面了。项目通常预置了一些示例数据你可以直接输入“怎么报销吃饭的发票”测试效果。3.2 深入核心模型加载代码解析一键部署虽然方便但如果你想定制化或者集成到自己的系统里就需要了解核心的模型加载过程。我们来看一下用Python和PyTorch如何加载GTE模型。首先安装必要的库pip install torch transformers sentence-transformers下面是加载模型并生成嵌入向量的核心代码from sentence_transformers import SentenceTransformer import torch # 1. 指定模型名称。这里使用GTE-Large的中文版。 # 模型会自动从Hugging Face Hub下载如果下载慢可以提前下载到本地指定路径。 model_name “BAAI/bge-large-zh-v1.5” # GTE系列模型此为同类顶尖模型示例 # 或者使用本地路径model_path “./your_local_model_dir” # 2. 加载模型。device参数指定使用CPU还是GPU。 # 如果有CUDA显卡使用 ‘cuda’ 会快很多。 device ‘cuda’ if torch.cuda.is_available() else ‘cpu’ print(f“正在加载模型到设备: {device}“) model SentenceTransformer(model_name, devicedevice) # 3. 准备文本。可以是一个字符串也可以是一个字符串列表批量处理效率更高。 sentences [ “怎么报销吃饭的发票” “餐饮发票必须在消费后7天内提交。” “服务器崩了怎么办” ] # 4. 生成嵌入向量Embeddings。 # 模型会自动处理分词、编码等所有步骤。 embeddings model.encode(sentences, convert_to_tensorTrue, # 转换为PyTorch张量方便后续计算 normalize_embeddingsTrue) # 非常重要将向量归一化以便使用余弦相似度 print(f“生成的向量形状{embeddings.shape}“) # 例如torch.Size([3, 1024]) print(f“第一个句子的向量前10维: {embeddings[0][:10]}“) # 5. 计算余弦相似度示例计算第一个问题和后面两个句子的相似度 from sentence_transformers.util import cos_sim query_embedding embeddings[0] doc_embeddings embeddings[1:] similarities cos_sim(query_embedding, doc_embeddings) print(f“问题与文档的余弦相似度{similarities}“)代码解读与关键点normalize_embeddingsTrue这是至关重要的一步。它将向量归一化为单位长度模长为1。在此前提下向量点积就等于余弦相似度能极大简化计算并提升准确性。批量处理model.encode支持传入句子列表一次性生成所有向量比循环调用单句编码快得多。设备选择GTE-Large模型有数亿参数在GPU上运行比CPU快几十倍。如果你有NVIDIA显卡如RTX 4090务必使用device‘cuda’。3.3 性能优化小贴士如果你的文档量很大生成向量索引可能会比较耗时。这里有几个优化思路批处理Batch如上所示总是以批处理形式调用encode。精度权衡模型默认使用FP32精度。如果追求极致速度且对精度要求可略微放宽可以尝试FP16半精度。model model.half() # 将模型转换为半精度 (需要GPU支持)量化对于部署可以使用更激进的量化技术如INT8来压缩模型进一步提升推理速度并减少内存占用但这通常需要额外的工具库如ONNX Runtime, TensorRT。加载好模型我们就有了将文本转化为向量的能力。下一步就是如何处理大量的企业文档并把这些向量有效地存储和管理起来。4. 构建企业知识库从文档到向量索引模型准备好了现在我们要用它对企业的“知识”——也就是各种文档——进行加工。这一步的目标是建立一个高效的“向量索引”为后续的毫秒级检索打下基础。4.1 文档预处理让文本更“干净”原始文档PDF、Word、网页通常包含大量对语义理解无益的“噪音”比如页眉页脚、广告、特殊字符、过长的段落。直接编码效果会打折扣。预处理流程一般如下import re from typing import List def preprocess_text(text: str) - str: “”“基础的文本清洗函数”“” # 1. 去除多余的空格、换行符、制表符 text re.sub(r‘\s‘, ‘ ‘, text) # 2. 去除特殊字符根据实际情况调整 # text re.sub(r‘[^\w\s\u4e00-\u9fff,.:;!?]‘, ‘’, text) # 保留中文、基本标点 # 3. 可选纠正常见错别字需要外部库 return text.strip() def split_into_chunks(text: str, chunk_size: int500, overlap: int50) - List[str]: “”“将长文本分割成有重叠的小块。 这是构建RAG系统的关键步骤防止丢失上下文也便于精确定位。 Args: text: 原始文本 chunk_size: 每个文本块的大致长度字符数 overlap: 块与块之间的重叠长度 ”“” words text.split() # 简单按空格分中文需用jieba等分词库 chunks [] start 0 while start len(words): end start chunk_size chunk ‘ ‘.join(words[start:end]) chunks.append(chunk) start end - overlap # 重叠一部分保证上下文连贯 return chunks # 示例处理一个文档 raw_document “““这里是公司财务制度第XX章...餐饮发票必须在消费后7天内提交给部门秘书...逾期将不予处理...”“” cleaned_text preprocess_text(raw_document) text_chunks split_into_chunks(cleaned_text, chunk_size300, overlap30) print(f“原始文档长度{len(raw_document)}“) print(f“分割成 {len(text_chunks)} 个文本块”) for i, chunk in enumerate(text_chunks[:2]): # 打印前两个块 print(f“块 {i1}: {chunk[:100]}...“)关键决策分块Chunking策略为什么分块一篇很长的政策文件如果整个编码成一个向量搜索“发票提交时间”时这个长向量可能无法精准匹配到包含具体时间的那一小段话。分块可以提高检索的精度和粒度。块大小Chunk Size通常设置在256-1024个字符或词之间。太小会丢失上下文太大会降低检索精度。需要根据你的文档类型短消息、长文章、技术手册进行调试。重叠Overlap块之间保留一部分重叠文字可以避免一个完整的句子或概念被硬生生切断保证检索结果的连贯性。4.2 批量生成向量并存储预处理后我们得到了一个干净的文本块列表。接下来就是用上一章的模型批量生成它们的向量并存入向量数据库。这里以轻量级且性能优异的Qdrant向量数据库为例from qdrant_client import QdrantClient from qdrant_client.http import models from sentence_transformers import SentenceTransformer import uuid # 1. 连接Qdrant数据库假设已在本地运行 client QdrantClient(host“localhost”, port6333) # 或者使用内存模式client QdrantClient(“:memory:“) collection_name “enterprise_knowledge_base“ # 2. 创建集合Collection类似数据库的表 # 定义向量维度必须和模型输出维度一致GTE-Large是1024 vector_size 1024 client.recreate_collection( collection_namecollection_name, vectors_configmodels.VectorParams( sizevector_size, distancemodels.Distance.COSINE # 使用余弦距离与我们归一化的向量匹配 ) ) # 3. 加载模型 model SentenceTransformer(“BAAI/bge-large-zh-v1.5”, device‘cuda’) # 4. 假设我们已经有了预处理后的文本块列表 all_chunks 和对应的元数据如来源文件 # all_chunks [“块1文本”, “块2文本”, ...] # metadata_list [{“source”: “财务制度.pdf”, “page”: 10}, ...] all_chunks [“餐饮发票必须在消费后7天内提交。” “新员工需在入职一周内完成IT系统注册。”] metadata_list [{“source”: “财务制度”}, {“source”: “人事制度”}] # 5. 批量生成向量 print(“正在批量生成文本向量...”) chunk_embeddings model.encode(all_chunks, convert_to_tensorFalse, # Qdrant客户端需要numpy数组或列表 normalize_embeddingsTrue, show_progress_barTrue) # 6. 准备上传的数据点Points points [] for idx, (embedding, metadata) in enumerate(zip(chunk_embeddings, metadata_list)): point_id idx # 可以用uuid.uuid4().hex生成唯一ID point models.PointStruct( idpoint_id, vectorembedding.tolist(), # 转换为列表 payloadmetadata # 存储元数据方便检索后查看来源 ) points.append(point) # 7. 批量上传到Qdrant print(f“正在上传 {len(points)} 个向量到数据库...”) client.upsert(collection_namecollection_name, pointspoints) print(“知识库向量索引构建完成”)至此你的企业知识库已经从一堆杂乱文档变成了一个结构清晰、支持语义检索的向量索引。接下来就是让这个索引“活”起来响应用户的查询。5. 语义检索与热力评分可视化索引建好了重头戏来了——如何让用户输入一个问题系统就能从海量知识中精准找到答案并且我们如何把AI的“思考过程”即相关性评分直观地展示出来这就是本章要解决的问题。5.1 实现语义检索从问题到答案检索流程是线上服务的核心要求快速、准确。下面的代码演示了完整的检索过程def semantic_search(query: str, top_k: int5): “”“执行语义搜索”“” # 1. 将用户查询转换为向量 query_embedding model.encode([query], convert_to_tensorFalse, normalize_embeddingsTrue)[0] # 取第一个结果 query_embedding_list query_embedding.tolist() # 2. 在向量数据库中搜索最相似的向量 search_result client.search( collection_namecollection_name, query_vectorquery_embedding_list, limittop_k # 返回最相似的top_k个结果 ) # 3. 整理并返回结果 results [] for hit in search_result: # hit 包含id, score相似度分数, payload元数据 result_item { “id”: hit.id, “score”: hit.score, # 余弦相似度分数范围通常在[0,1]附近 “text”: all_chunks[hit.id], # 根据ID找回原文实际应用中应从payload或关联存储获取 “source”: hit.payload.get(“source”, “Unknown”) } results.append(result_item) return results # 示例搜索 user_query “怎么报销吃饭的发票” top_results semantic_search(user_query, top_k3) print(f“查询 ‘{user_query}’“) print(“-” * 50) for i, res in enumerate(top_results): print(f“结果 {i1} (相似度{res[‘score’]:.4f})“) print(f“ 文本{res[‘text’]}“) print(f“ 来源{res[‘source’]}“) print()运行这段代码你会看到系统返回了与“报销吃饭发票”最相关的文档片段并附带一个相似度分数。这个分数就是余弦相似度的值越接近1代表AI认为越相关。5.2 热力评分可视化让AI的“信心”一目了然光有数字分数还不够直观。GTE-Pro的一个亮点就是提供了热力评分条用视觉化的方式展示相关性。这在很多企业应用中非常有用让非技术用户也能快速判断结果的可信度。我们可以用简单的HTML和CSS在Web界面上实现这个效果。这里用Python的Streamlit库快速演示import streamlit as st import plotly.graph_objects as go # 使用Plotly绘制更美观的条形图 # 假设我们已经通过上面的函数拿到了搜索结果 search_results search_results top_results # 沿用上面的结果 st.title(“ GTE-Pro 语义检索演示”) query st.text_input(“请输入你的问题”, “怎么报销吃饭的发票”) if query and search_results: st.subheader(f“关于 ‘{query}’ 的搜索结果”) for res in search_results: score res[‘score’] # 根据分数决定颜色 (从红到绿) # 分数越高绿色越深代表相关性越高 if score 0.7: color ‘#2ecc71‘ # 强相关深绿 elif score 0.4: color ‘#f1c40f‘ # 中等相关黄色 else: color ‘#e74c3c‘ # 弱相关红色 # 使用Plotly创建水平条形图热力条 fig go.Figure(go.Bar( x[score], # 条的长度 y[“”], # 不需要Y轴标签 orientation‘h‘, markerdict(colorcolor), text[f‘{score:.3f}‘], textposition‘outside‘, width0.3 # 条的粗细 )) # 更新图表布局使其看起来像一个简洁的评分条 fig.update_layout( xaxisdict(range[0, 1.1], showticklabelsFalse, title“”), # 隐藏X轴 yaxisdict(showticklabelsFalse, title“”), height80, margindict(l10, r10, t10, b10), showlegendFalse ) # 在Streamlit中显示 col1, col2 st.columns([3, 7]) with col1: st.plotly_chart(fig, use_container_widthTrue, keyf“score_bar_{res[‘id’]}“) with col2: st.markdown(f“**{res[‘text’]}**“) st.caption(f“来源{res[‘source’]} | ID: {res[‘id’]}“) st.divider()这段代码做了什么根据相似度分数score决定颜色高分段用绿色中分段用黄色低分段用红色。这是一个直观的热力映射。用Plotly生成一个水平的条形图长度代表分数颜色代表相关性强弱。将评分条和对应的文本、来源信息并排展示。最终用户在前端会看到一个非常直观的界面每个搜索结果旁边都有一个彩色的进度条绿色越长、越满代表AI对这个结果越“有信心”。这比单纯看一个0.85的数字要友好得多。5.3 构建完整应用整合与部署将上述所有模块整合起来加上一个简单的前端如Streamlit、Gradio或Vue.js你就拥有了一个完整的企业级语义检索应用原型。核心架构提醒模型服务对于高并发场景建议将模型封装成独立的API服务如使用FastAPI而非每次搜索都加载模型。异步处理文档索引生成通常是离线异步任务可以使用Celery等队列处理。缓存对常见的查询结果进行缓存能极大提升响应速度。混合搜索在一些场景下结合传统的关键词搜索召回率高和语义搜索精度高进行混合排序能得到更全面的结果。6. 总结走完这一整趟实战旅程我们从理论到代码亲手搭建了一个能“理解人话”的企业语义智能系统。让我们回顾一下最关键的几个收获第一语义检索的核心价值在于“理解意图”。它打破了关键词匹配的字面枷锁让搜索系统能读懂“资金周转不灵”和“缺钱”是一回事能建立“服务器崩了”和“检查Nginx配置”之间的逻辑联系。这对于企业内部杂乱无章的非结构化知识库来说是一次检索效率的质变。第二GTE-Pro这样的开源方案降低了技术门槛。基于阿里达摩院顶尖的GTE模型我们无需从零开始训练就能获得强大的语义表示能力。通过Sentence-Transformers这样的库加载模型、生成向量变得异常简单。而向量数据库如Qdrant的成熟让海量向量的存储和毫秒级检索成为可能。第三可视化让AI决策过程变得透明。我们不仅得到了搜索结果还通过热力评分条将AI计算出的余弦相似度以直观、色彩化的方式呈现出来。这不再是黑盒用户一眼就能看出哪个结果更相关、更可信这对于构建可信赖的AI应用至关重要。第四本地化部署保障了数据安全。整个流程从文档处理、向量化到检索全部可以在企业内部服务器上完成敏感数据无需出域。这满足了金融、政务、法律等对数据隐私要求极高行业的合规需求。当然这只是起点。一个真正成熟的企业级系统还需要考虑更多如何设计更智能的文本分块策略如何对检索结果进行重排序Re-ranking以提升精度如何与现有的OA、CRM系统集成如何设计用户反馈机制来持续优化模型但无论如何你已经掌握了最核心的链路加载模型 - 处理文档 - 构建索引 - 语义检索 - 可视化展示。有了这个基础你可以将它应用到客服问答、知识库搜索、内容推荐、代码检索等无数场景中让机器真正成为理解和梳理企业知识的得力助手。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2482694.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…