机器学习赋能软件质量保障:从Bug自动分类到智能缺陷管理实战

news2026/4/30 4:43:46
1. 项目概述当机器学习遇见软件质量保障在软件开发的日常里Bug缺陷的识别、分类和处理是每个工程师和测试人员绕不开的“日常任务”。想象一下一个大型开源项目每天有成百上千个新的Bug报告涌进来它们描述各异优先级不明需要人工逐一阅读、理解、打上标签比如“核心功能缺陷”、“界面问题”、“性能瓶颈”再分配给合适的工程师。这个过程耗时耗力而且高度依赖个人经验容易产生疏漏和延迟。Mozilla的bugbug项目就是为了解决这个痛点而生的。它不是一个独立的软件而是一个由Mozilla维护的机器学习工具集和模型库核心目标就是利用机器学习自动化处理BugzillaMozilla使用的缺陷跟踪系统中的Bug报告。简单来说它试图教会机器去“阅读”Bug报告然后自动完成一些我们人类觉得繁琐的工作比如这个Bug是“崩溃”类还是“功能缺失”类它的严重程度如何应该分配给哪个开发团队甚至这个Bug报告的质量高不高信息是否完整我第一次接触这个项目时就被它的务实所吸引。它没有空谈AI改变世界而是扎扎实实地瞄准了一个具体、高频、且能显著提升效率的场景。对于任何拥有类似缺陷跟踪流程的团队无论是互联网公司、传统软件企业还是开源社区bugbug所展示的思路和实现都具有极高的参考价值。它就像一位不知疲倦的初级质量分析师7x24小时地帮你进行第一轮Bug报告筛选和预处理。2. 核心功能与价值解析不止于分类很多人初看bugbug可能会认为它就是一个“Bug分类器”。这没错但它的能力远不止于此。通过对项目代码和文档的深入剖析我们可以将其核心价值拆解为几个层次每一层都对应着软件开发质量保障中的一个具体痛点。2.1 自动化分类与打标这是bugbug最基础也是最核心的功能。它训练了多个机器学习模型专门用于处理Bug报告的不同属性缺陷类型分类自动判断一个Bug属于“崩溃”、“安全漏洞”、“功能缺陷”、“可用性问题”等中的哪一类。这能帮助团队快速识别高优先级的Bug如安全漏洞和崩溃。组件/团队分配预测这个Bug应该由哪个代码模块或哪个开发团队来处理。在Mozilla这样庞大的组织中Firefox浏览器涉及渲染引擎、JavaScript引擎、网络模块、UI界面等数十个组件手动分配极易出错。模型通过学习历史Bug报告与最终解决组件的对应关系可以给出高置信度的分配建议。严重性与优先级评估根据Bug描述的文本、附件、堆栈跟踪等信息模型可以预测其严重等级如S1阻断级、S2严重级和优先级。这为产品经理和团队负责人安排修复计划提供了数据参考。注意这里的“预测”并非取代人类决策而是提供强有力的辅助建议。最终的决定权仍然在工程师或项目经理手中但模型能极大地缩小决策范围将人力从海量的简单判断中解放出来。2.2 缺陷报告质量检测一个信息不全、描述模糊的Bug报告会极大地增加排查和修复的成本。bugbug包含的bugbug-http服务可以在Bug报告提交时或提交后实时分析其质量。例如检查是否包含了必要的堆栈跟踪信息。检查步骤描述是否清晰、可复现。检查是否关联了正确的产品、组件版本。甚至可以评估报告的“完整性”得分并给出改进建议如“请附上崩溃时的日志文件”。这个功能的价值在于“前置质量控制”从源头提升Bug报告的信息含量从而加速整个修复流程。2.3 回归风险预测这是更进阶的应用。bugbug尝试分析代码提交Commit预测该提交引入新Bug即造成回归的风险概率。它通过分析提交代码的元数据如修改的文件类型、修改行数、提交者经验值以及代码差异Diff本身的特征来训练模型。对于高风险提交系统可以触发更严格的人工审查或自动化测试防患于未然。2.4 为持续集成/持续交付提供智能门禁将上述能力集成到CI/CD流水线中就构成了智能化的质量门禁。例如在代码评审阶段自动标注可能受影响的Bug。在合并请求时评估其回归风险决定是否需要额外的测试套件。在每日构建后自动扫描新产生的Bug报告进行初步分类和分配。价值总结bugbug的价值链非常清晰——降本、增效、提质。它减少了人工处理重复性任务的时间加快了Bug的响应和修复速度并通过提升Bug报告质量和预测风险间接提高了软件产品的整体质量。对于Mozilla自身它是支撑Firefox等大型项目高效运作的基础设施之一对于外部团队它是一套宝贵的、可直接借鉴或二次开发的“AI软件工程”实战范例。3. 技术架构与核心组件拆解bugbug不是一个 monolithic单体应用而是一个由多个相对独立的脚本、模型和服务组成的生态系统。理解它的架构有助于我们明白如何将其思想应用到自己的环境中。其核心可以分为数据层、模型层和应用层。3.1 数据管道从Bugzilla到特征向量一切机器学习的基础都是数据。bugbug的数据管道是其最坚实也最复杂的部分之一。数据抽取项目提供了专门的脚本如bugbug/data.py中的相关类通过Bugzilla的REST API或数据库导出文件获取历史Bug报告数据。每条数据不仅包括标题、描述等文本还包括完整的变更历史谁、在何时、修改了哪个字段、附件列表、评论等。数据清洗与标注原始数据是嘈杂的。管道需要处理缺失值、去除无关信息如邮件签名、标准化字段格式。更重要的是它依赖于历史Bug报告中人工最终确定的标签作为监督学习的“真值”。例如一个Bug最终被工程师标记为“崩溃”并分配给了“Core::Graphics”组件那么这条数据就为“缺陷类型分类模型”和“组件分配模型”提供了一个训练样本。特征工程这是将原始数据转化为模型可理解格式的关键步骤。bugbug的特征工程非常丰富文本特征使用TF-IDF、词袋模型或更现代的句子嵌入技术将Bug标题和描述转化为数值向量。这里会涉及去除停用词、词干提取等自然语言处理常规操作。元数据特征报告者信息、产品版本、操作系统、硬件架构等。时间序列特征Bug报告的时间、最后活动时间等。关系特征引用的其他Bug、附件数量、评论数量等。代码差异特征对于回归预测模型需要解析代码提交的diff提取如修改的文件路径是否为核心模块、增删行数、修改模式等特征。3.2 模型训练与服务化bugbug主要使用Python的机器学习生态特别是scikit-learn和xgboost这类经典且高效的库。模型选型对于分类任务如缺陷类型、组件分配常用的是梯度提升决策树如XGBoost或支持向量机。这些模型在结构化特征元数据、统计特征与文本特征结合的场景下表现稳健且训练和预测速度较快可解释性也相对较好。对于纯文本理解任务也可能尝试简单的神经网络或集成预训练模型。训练流水线项目使用scikit-learn的Pipeline来组织特征提取、转换和模型训练步骤确保整个过程可复现。训练脚本会读取处理好的数据进行特征组合然后使用交叉验证来调整模型超参数避免过拟合。模型持久化与版本化训练好的模型会被序列化通常用joblib或pickle保存并存储起来。bugbug需要管理多个不同任务的模型因此有相应的机制来加载指定版本的模型进行推理。服务化bugbug-http是一个基于Tornado或Flask的轻量级HTTP服务。它加载训练好的模型提供RESTful API。例如可以向/defect_type/predict发送一个包含Bug报告JSON数据的POST请求服务会返回预测的缺陷类型和置信度。这使得其他系统如Bugzilla插件、CI工具可以方便地调用其能力。3.3 项目组织与关键模块浏览bugbug的代码仓库可以看到清晰的模块化结构bugbug/核心Python包。models/各个具体模型的实现如defect.py,component.py,regression.py。data/数据获取、清洗和特征工程的代码。utils/通用工具函数如日志、配置读取。http_service/bugbug-http服务的实现。scripts/用于训练、测试、评估模型的命令行脚本。requirements.txt/setup.py项目依赖和环境定义。tests/单元测试和集成测试。这种结构使得每个模型都可以独立开发、训练和更新符合现代机器学习项目的工程化实践。4. 实操如何为自己的项目构建简易版Bug分类器理解了bugbug的架构我们完全可以借鉴其思路为自己团队使用的Jira、GitLab Issues、TAPD或其他缺陷跟踪系统打造一个量身定制的自动化分类助手。下面我将以一个使用Jira的团队为例拆解从零到一的关键步骤。4.1 环境准备与数据导出首先你需要一个Python环境建议3.8以上和基本的ML库。# 创建虚拟环境 python -m venv bugbug-env source bugbug-env/bin/activate # Linux/macOS # bugbug-env\Scripts\activate # Windows # 安装核心依赖 pip install pandas scikit-learn xgboost jupyterlab pip install requests # 用于调用Jira API pip install joblib # 用于保存模型接下来是最关键的一步获取数据。你需要从Jira中导出历史Bug数据。使用Jira REST API这是最灵活的方式。你需要有相应的访问权限和API Token。import requests import json import pandas as pd JIRA_URL https://your-company.atlassian.net EMAIL your-emailcompany.com API_TOKEN your-api-token auth (EMAIL, API_TOKEN) headers {Accept: application/json} # 构建JQL查询获取所有已关闭的Bug并指定需要的字段 jql project YOURPROJECT AND issuetype Bug AND status Closed ORDER BY created DESC url f{JIRA_URL}/rest/api/3/search all_issues [] start_at 0 max_results 100 while True: query { jql: jql, startAt: start_at, maxResults: max_results, fields: [summary, description, components, priority, labels, issuetype] # 选择需要的字段 } response requests.get(url, headersheaders, authauth, paramsquery) data response.json() issues data[issues] all_issues.extend(issues) if len(issues) max_results: break start_at max_results # 将数据转换为pandas DataFrame df pd.json_normalize(all_issues) df.to_csv(jira_bugs_historical.csv, indexFalse)实操心得首次导出数据时字段不要贪多先聚焦核心字段summary标题、description描述、components组件这是我们要预测的标签之一、priority优先级。导出后务必人工检查数据质量比如描述字段是否为HTML格式需要清洗组件信息是否完整。使用Jira导出功能如果API权限受限可以尝试使用Jira后台的“导出为CSV”功能但自定义字段和格式可能受限。4.2 数据清洗与特征工程实战导出的原始数据无法直接喂给模型。假设我们构建一个“组件分配”预测模型。import pandas as pd import re from sklearn.feature_extraction.text import TfidfVectorizer from sklearn.preprocessing import LabelEncoder # 1. 加载数据 df pd.read_csv(jira_bugs_historical.csv) # 2. 清洗数据 # 处理缺失的描述字段 df[description] df[description].fillna() # 合并标题和描述作为主要文本特征 df[text] df[summary] df[description] # 简单的文本清洗去除HTML标签转小写 def clean_text(text): text re.sub(r[^], , text) # 去HTML标签 text re.sub(r[^a-zA-Z0-9\s], , text) # 去标点保留字母数字空格 text text.lower() return text df[text_clean] df[text].apply(clean_text) # 3. 准备标签 # 假设每个Bug只属于一个组件我们取第一个实际情况需处理多组件 df[component] df[fields.components].apply(lambda x: eval(x)[0][name] if eval(x) else Unknown) # 过滤掉标签为‘Unknown’或样本数极少的组件例如少于10个样本 component_counts df[component].value_counts() valid_components component_counts[component_counts 10].index df df[df[component].isin(valid_components)] # 4. 特征工程 # 文本特征使用TF-IDF限制最大特征数以避免维度灾难 tfidf TfidfVectorizer(max_features500, stop_wordsenglish) X_text tfidf.fit_transform(df[text_clean]) # 元数据特征例如优先级需要编码 le LabelEncoder() df[priority_encoded] le.fit_transform(df[fields.priority.name].fillna(Medium)) # 可以将优先级等元数据转换为独热编码 (One-Hot Encoding) # 这里简单将其作为数值特征 X_meta df[[priority_encoded]].values # 组合特征 (这里简单拼接实际中可能需要更复杂的处理) import scipy.sparse as sp X sp.hstack([X_text, X_meta], formatcsr) # 稀疏矩阵高效存储 # 5. 准备目标变量 y df[component].values4.3 模型训练、评估与部署有了特征X和标签y就可以开始训练模型了。from sklearn.model_selection import train_test_split from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import classification_report, accuracy_score import joblib # 1. 划分训练集和测试集 X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, random_state42, stratifyy) # 2. 选择并训练模型 # 随机森林是一个不错的起点对特征量纲不敏感能处理高维稀疏特征。 model RandomForestClassifier(n_estimators100, random_state42, n_jobs-1) model.fit(X_train, y_train) # 3. 评估模型 y_pred model.predict(X_test) print(f准确率: {accuracy_score(y_test, y_pred):.4f}) print(\n详细分类报告:) print(classification_report(y_test, y_pred)) # 4. 保存模型和特征提取器 # 预测新Bug时需要用同样的方式处理文本因此必须保存tfidf vectorizer。 joblib.dump(model, component_classifier_model.joblib) joblib.dump(tfidf, tfidf_vectorizer.joblib) joblib.dump(le, priority_encoder.joblib) # 如果需要评估结果分析不要只看整体准确率。一个包含20个组件的分类任务如果某个组件样本极少模型可能永远学不会。一定要看classification_report中的精确率、召回率和F1-score特别是对每个组件的表现。如果某些组件表现极差可能需要考虑合并相关组件、收集更多数据或者采用层次分类等策略。4.4 构建预测服务模型训练好后可以封装成一个简单的服务供其他系统调用。# app.py (使用Flask示例) from flask import Flask, request, jsonify import joblib import pandas as pd import re app Flask(__name__) # 加载模型和预处理工具 model joblib.load(component_classifier_model.joblib) tfidf joblib.load(tfidf_vectorizer.joblib) le joblib.load(priority_encoder.joblib) def preprocess_input(summary, description, priority): 复现训练时的预处理流程 text str(summary) str(description) text_clean re.sub(r[^], , text) text_clean re.sub(r[^a-zA-Z0-9\s], , text_clean).lower() text_feature tfidf.transform([text_clean]) # 处理优先级 try: priority_encoded le.transform([priority])[0] except ValueError: priority_encoded le.transform([Medium])[0] # 默认值 # 组合特征 (需要与训练时完全一致) import scipy.sparse as sp import numpy as np meta_feature np.array([[priority_encoded]]) combined sp.hstack([text_feature, meta_feature], formatcsr) return combined app.route(/predict/component, methods[POST]) def predict_component(): data request.json summary data.get(summary, ) description data.get(description, ) priority data.get(priority, Medium) features preprocess_input(summary, description, priority) prediction model.predict(features)[0] # 可以获取预测概率 probabilities model.predict_proba(features)[0] # 获取概率最高的前3个组件 classes model.classes_ top3_idx probabilities.argsort()[-3:][::-1] top3 [{component: classes[i], probability: float(probabilities[i])} for i in top3_idx] return jsonify({ predicted_component: prediction, top_suggestions: top3 }) if __name__ __main__: app.run(host0.0.0.0, port5000, debugFalse)现在当你在Jira中新建一个Bug时可以通过一个简单的Webhook或者浏览器插件将Bug的标题、描述和优先级发送到这个服务的/predict/component接口即可获得自动分配的组件建议。你可以将这个建议作为默认值预填或者供创建者参考。5. 深入优化与高级技巧完成基础版本后你会发现效果可能不尽如人意。别急机器学习应用是一个迭代优化的过程。以下是一些提升模型效果的进阶思路。5.1 特征工程的深化更丰富的文本表示N-gram在TF-IDF中引入二元词组bigram或三元词组trigram可以捕捉“内存泄漏”、“空指针异常”这类固定短语。词嵌入使用预训练的词向量如Word2Vec、GloVe或上下文相关的嵌入模型如BERT的句向量可以更好地理解语义相似性。例如“崩溃”和“闪退”在词向量空间中是接近的。领域词典构建自己项目的技术术语词典赋予更高的权重。引入更多元数据报告者历史该用户过去报告的Bug主要属于哪些组件这可以作为特征。时间特征Bug创建的星期几、月份有时能反映特定团队的活动周期。附件信息是否有截图、日志文件可以将其作为布尔特征。处理文本中的代码和堆栈跟踪Bug描述中常包含代码片段和错误堆栈。可以设计专门的解析器提取其中的关键信息如错误类型NullPointerException、文件名、函数名作为结构化特征。5.2 模型与算法的优化处理类别不平衡组件分配通常极不平衡核心组件Bug多边缘组件Bug少。可以尝试重采样对少数类过采样如SMOTE对多数类欠采样。调整类别权重在模型如XGBoost、SVM中为少数类设置更高的惩罚权重。使用适合不平衡数据的评估指标如宏平均F1-score而不是准确率。模型集成不要只用一个模型。可以训练多个不同类型的模型如一个基于文本的神经网络一个基于元数据的树模型然后将它们的预测结果进行投票或平均软投票往往能获得更鲁棒的效果。层次分类如果组件有层级结构如Frontend/UI/Button可以构建层次分类器。先预测一级大类Frontend再在其下预测二级类UI以此类推。这可以简化每个子分类器的任务。5.3 工程化与持续学习构建自动化训练流水线使用Airflow、Luigi或简单的cron job Python脚本定期如每周用新的已解决Bug数据重新训练模型实现模型的持续迭代和优化。A/B测试与反馈闭环将模型的预测结果作为建议展示给用户并记录用户是否采纳。采纳的数据可以作为新的高质量训练数据。同时可以进行A/B测试对比使用模型建议和不使用时的Bug分配效率如平均分配时间。监控与告警监控预测服务的响应时间、成功率。监控模型在测试集上的性能指标是否随时间下降概念漂移。当性能下降到阈值以下时触发告警提示需要重新训练模型。6. 避坑指南与常见问题在实际落地过程中我踩过不少坑这里分享几个最常见的。问题一数据质量是最大的瓶颈。现象模型准确率死活上不去预测结果看起来“很傻”。排查首先检查你的训练数据标签即历史Bug的组件分配是否准确。很多时候历史Bug的分配本身就是随意或错误的。其次检查文本清洗是否过度导致丢失了关键信息如错误代码。解决进行数据审计。可以抽样几百条数据人工复核标签的正确性。对于文本清洗可以保留一些特殊符号如::,-它们可能在代码上下文中很重要。考虑构建一个“黄金数据集”即一小部分经过专家精心标注的数据用于评估模型和指导数据清洗。问题二冷启动问题。现象对于新项目或新出现的组件模型无法预测因为训练数据里没有。解决设置“未知”类别在训练时将所有样本数极少的组件都归为“未知”类。模型至少能识别出“这个Bug我不认识”而不是强行分配一个错误答案。基于文本相似度的后备方案当模型预测为“未知”或置信度极低时触发一个基于纯文本相似度如余弦相似度的检索系统从历史Bug中找出最相似的几个将其组件作为建议。这相当于一个简单的KNN分类器。主动学习将这些模型不确定的Bug主动推送给人工标注标注后立即加入训练集快速让模型学习新知识。问题三模型更新导致线上预测不一致。现象重新训练模型后同一个Bug的预测结果和上周不一样了引起混乱。解决版本化对模型文件、特征提取器进行严格的版本管理如用Git LFS或模型仓库。线上服务加载特定版本的模型。影子模式新模型不直接用于生产预测而是并行运行将其预测结果与旧模型的预测结果以及最终人工决策进行对比分析确认效果提升后再切换。回滚机制确保能快速回滚到上一个稳定版本的模型。问题四性能问题。现象预测API响应慢尤其在文本特征维度很高时。解决特征选择使用卡方检验、基于模型的特征重要性等方法筛选出最重要的几百个特征大幅降低维度。模型轻量化考虑使用更快的模型如线性模型逻辑回归或经过剪枝的决策树。或者使用scikit-learn的SGDClassifier。缓存对于完全相同的Bug描述可能来自重复提交可以直接缓存预测结果。异步处理如果不是实时需求可以将预测任务放入队列如Redis、RabbitMQ异步处理后再更新回系统。将机器学习应用于软件工程实践bugbug项目是一个绝佳的范本。它告诉我们AI并非遥不可及从一个个具体的、可量化的痛点入手用数据驱动的方法去优化现有流程就能产生实实在在的价值。从构建一个简单的组件分类器开始逐步迭代加入更多特征、优化模型、完善工程链路你就能为自己和团队打造一个越来越智能的研发助手。这个过程本身也是对数据思维和工程化能力的一次极佳锻炼。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2567712.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…