Ultralytics LLM:将YOLO工程哲学带入大语言模型应用开发

news2026/5/2 20:13:46
1. 项目概述当计算机视觉巨头拥抱大语言模型如果你在AI领域尤其是计算机视觉方向摸爬滚打过那么“ultralytics”这个名字对你来说一定如雷贯耳。它旗下的YOLO系列从v5到v8再到最新的v11几乎重新定义了目标检测的工程化实践以其极致的性能、简洁的API和活跃的社区成为了无数开发者和研究者的首选工具。但最近我在他们的GitHub组织下发现了一个名为“llm”的新仓库。第一反应是好奇甚至有点惊讶一个以CV为核心的团队为什么要涉足大语言模型这个看似已经“卷”到天际的领域这个“ultralytics/llm”项目并非要再造一个ChatGPT或Llama。它的核心定位非常清晰将Ultralytics在计算机视觉领域积累的、被验证过的强大工程哲学——即开箱即用、极致优化和易于部署——无缝迁移到大语言模型的应用和微调场景中。简单来说它想成为LLM领域的“YOLO式”工具。你不再需要为如何加载一个7B参数的模型而头疼不再需要为拼接复杂的提示词模板而烦恼也不再需要为将微调好的模型部署成API而大动干戈。这个项目试图用一个统一的、熟悉的接口把这些繁琐的步骤全部封装起来。这背后反映了一个强烈的需求AI应用开发正从单模态走向多模态从模型研究走向模型工程。一个能处理图像的AI系统往往也需要理解文本指令、生成报告或进行逻辑推理。对于已经熟悉YOLO那套model YOLO(yolov8n.pt); results model.predict(image.jpg)工作流的开发者来说如果处理LLM也能像这样简单直接那无疑是生产力的巨大解放。ultralytics/llm正是瞄准了这个痛点它旨在降低LLM的应用门槛让CV工程师也能轻松玩转LLM快速构建起融合视觉与语言的智能应用。2. 核心设计哲学从YOLO到LLM的“祖传配方”要理解ultralytics/llm到底做了什么我们必须先拆解Ultralytics的成功配方并看它是如何复用到LLM上的。这不仅仅是代码的移植更是一套工程思想的延续。2.1 统一且直观的API设计YOLO的成功一半要归功于其干净利落的API。无论底层模型结构如何迭代用户接口始终保持高度一致。ultralytics/llm完全继承了这一点。它的核心目标是让用户通过三行代码完成大多数LLM任务。from ultralytics import LLM # 1. 加载模型就像加载YOLO模型一样简单 model LLM(meta-llama/Llama-3.2-1B-Instruct) # 2. 进行推理一个predict方法走天下 response model.predict(Explain the concept of quantum computing to a beginner.) # 3. 获取结果 print(response.text)这种设计将Hugging Facetransformers库中繁琐的AutoTokenizer.from_pretrained,AutoModelForCausalLM.from_pretrained,pipeline等步骤以及vLLM,llama.cpp等推理引擎的复杂配置全部隐藏在一个简单的LLM类之后。用户无需关心底层用的是Transformers的原生实现、更快的vLLM还是量化后的GGUF模型API是统一的。为什么这么做降低认知负担。开发者尤其是那些主要背景是CV的开发者可以快速上手将精力集中在提示工程、应用逻辑和与CV系统的集成上而不是陷在模型加载和推理优化的泥潭里。2.2 对性能与效率的偏执YOLO系列一直以速度和精度平衡著称。ultralytics/llm同样将“效率”刻在了骨子里。它不仅仅是一个简单的封装器更是一个智能的“运行时调度器”。自动后端选择项目会根据你的硬件是否有GPU、GPU内存大小和模型格式原始PyTorch、量化过的GGUF自动选择最优的推理后端。例如在消费级GPU上它可能默认使用transformers进行全精度推理如果你加载一个GGUF文件它会自动切换到llama.cpp后端以获得更快的推理速度和更低的内存占用如果在多GPU服务器上部署它可能会建议你使用vLLM来获得极高的吞吐量。内置量化支持考虑到大模型对显存的恐怖需求项目很可能内置了或计划集成主流的量化方案如GPTQ、AWQ、Bitsandbytes。用户可以通过一个参数如quantizationgptq轻松启用量化而无需手动寻找、下载和配置量化模型。提示词模板化为了避免每次调用都手动拼接复杂的对话模板如Llama的[INST]...[/INST]项目会为每个支持的模型自动应用正确的聊天模板。这确保了模型能按照其训练时的格式接收输入从而发挥最佳性能。背后的逻辑在真实的生产和研发环境中时间就是金钱显存就是瓶颈。一个工具如果不能高效地利用硬件资源其价值就大打折扣。ultralytics/llm试图通过自动化决策让开发者无需成为推理优化专家也能获得不错的性能。2.3 面向部署与生产YOLO模型训练完后可以轻松导出为ONNX、TensorRT、CoreML等格式并部署到从云端到边缘的各种设备。ultralytics/llm的设计同样着眼于“最后一公里”。一键式服务化可以预见项目会提供一个类似于model.serve()或model.export(api)的功能快速启动一个基于FastAPI或类似框架的RESTful API服务并自动生成Swagger文档。这对于需要将LLM能力开放给其他系统比如一个图像分析系统需要LLM生成报告的场景至关重要。标准化输出无论底层模型返回什么原始格式predict方法都会返回一个结构化的对象比如上面例子中的response其中包含生成的文本、可能的token数量、推理时间等元数据。这种标准化输出便于后续的日志记录、监控和管道集成。与现有生态的集成作为Ultralytics家族的一员它与YOLO的集成将是天衣无缝的。想象一下这样的工作流用YOLO检测图像中的物体将检测结果类别、坐标作为上下文通过ultralytics/llm调用LLM生成描述性语句或回答关于图像的问题。这种多模态流水线可以在一个统一的代码风格下完成。3. 核心功能模块深度拆解基于上述设计哲学我们可以将ultralytics/llm的核心功能分解为几个关键模块每个模块都解决了LLM应用中的一个具体痛点。3.1 模型加载与管理系统这是项目的基石。它需要成为一个“模型百宝箱”能处理来自不同来源、不同格式的模型。# 示例多种加载方式 model1 LLM(meta-llama/Llama-3.2-1B-Instruct) # 从Hugging Face Hub加载 model2 LLM(/local/path/to/llama-7b-gguf.Q4_K_M.gguf) # 加载本地GGUF量化模型 model3 LLM(gpt2, backendtransformers, devicecuda:0) # 指定后端和设备 model4 LLM(Qwen/Qwen2.5-7B-Instruct, quantizationgptq) # 指定加载GPTQ量化版本实现要点与避坑指南缓存机制首次从Hugging Face Hub下载模型后应自动缓存到本地避免重复下载。缓存路径最好可配置。模型验证加载时应检查模型文件完整性、格式兼容性并给出清晰的错误提示如“该GGUF文件版本与当前llama.cpp后端不兼容”。内存预估在加载前如果能根据模型参数和量化等级预估所需内存并给出警告如“加载此模型预计需要12GB显存当前可用仅8GB”将极大提升用户体验。注意混合使用不同后端的模型时要确保它们的tokenizer行为一致。例如transformers后端和llama.cpp后端对同一个模型的tokenizer处理可能有细微差别需要在抽象层做好对齐防止出现生成质量下降的问题。3.2 推理与对话引擎这是项目的核心负责将用户的输入转化为模型的输出。# 基础文本补全 response model.predict(The future of AI is, max_tokens50, temperature0.7) # 多轮对话Chat messages [ {role: system, content: You are a helpful assistant.}, {role: user, content: Who won the world series in 2020?}, {role: assistant, content: The Los Angeles Dodgers won the World Series in 2020.}, {role: user, content: Where was it played?} ] response model.chat(messages) # 流式输出用于实现打字机效果 for chunk in model.predict(Write a poem about the sea., streamTrue): print(chunk.text, end, flushTrue)关键参数与原理解析max_tokens生成的最大token数。需要理解这里的token不是单词对于英文大约1个token对应0.75个单词。设置过小会导致回答截断过大则浪费计算资源并可能生成无关内容。一个经验法则对于问答128-256通常足够对于创意写作可以设为512或更高。temperature温度控制生成随机性的关键参数范围通常在0.0到1.0之间。temperature0.0模型总是选择概率最高的下一个token输出确定但可能枯燥、重复。temperature0.7~0.9常用范围在创造性和连贯性之间取得较好平衡。temperature 1.0输出会变得非常随机、不连贯。实操心得对于代码生成、事实问答建议用较低温度0.1-0.3对于创意写作、头脑风暴可以用较高温度0.8-1.0。top_p核采样另一种控制随机性的方法动态地从概率累积和达到p的最小token集合中采样。通常与temperature配合使用或二选一。top_p0.9或0.95是常见值。stream流式输出。对于需要长时间生成或希望实现实时交互效果的Web应用至关重要。实现时要注意正确处理生成过程中的中间状态和错误。3.3 微调与适配层对于希望用自有数据定制模型的专业用户微调功能必不可少。ultralytics/llm的微调模块应该追求“配置化”和“可复现”。# 假设的微调配置文件 (finetune.yaml) model: meta-llama/Llama-3.2-1B-Instruct data: path: /path/to/my_dataset.jsonl # 格式应与Hugging Face datasets兼容 format: instruction # 指定数据格式如instruction, conversation training: epochs: 3 learning_rate: 2e-5 batch_size: 4 gradient_accumulation_steps: 8 lora: enabled: true # 默认使用LoRA等高效微调技术降低资源需求 r: 16 alpha: 32然后通过命令行或Python API启动yolo llm finetune cfgfinetune.yaml微调中的核心考量与陷阱数据格式处理这是微调失败的首要原因。项目必须提供清晰的数据格式说明和验证工具。例如指令微调数据通常需要instruction、input、output三个字段并且需要被处理成模型训练时见过的对话模板格式。高效微调技术集成全参数微调一个7B模型对大多数开发者来说是不现实的。因此必须默认集成LoRA、QLoRA等参数高效微调方法。这能将显存需求从几十GB降低到十几GB甚至更低使得在消费级GPU上微调大模型成为可能。训练循环与监控需要集成像WB或TensorBoard这样的日志工具方便用户监控训练损失、学习率变化等。同时实现评估步骤在验证集上定期检查模型性能。灾难性遗忘在微调时如果数据量很小或领域非常专模型可能会“忘记”原有的通用知识。可以通过在微调数据中混合一部分通用数据如Alpaca格式的数据来缓解。3.4 部署与服务化工具模型的价值在于应用。部署模块的目标是让训练或加载好的模型能快速提供服务。# 启动一个本地API服务 model.serve(host0.0.0.0, port8000, api_typeopenai) # 模拟OpenAI API接口 # 导出为可独立部署的格式 model.export(formatonnx, dynamic_axesTrue) # 导出为ONNX如果支持 model.export(formattriton) # 导出为NVIDIA Triton Inference Server格式部署模式详解本地REST API这是最常见的需求。model.serve()应该启动一个高性能的ASGI服务器如Uvicorn提供/v1/completions和/v1/chat/completions等兼容OpenAI API的端点。这样任何熟悉OpenAI SDK的客户端都能无缝接入。批量推理接口除了交互式API还应提供model.predict_batch([prompt1, prompt2, ...])方法用于高效处理大批量任务内部可以利用vLLM的迭代级调度等优化技术。导出标准化格式对于追求极致性能或需要嵌入到特定运行时如移动端、浏览器的场景导出为ONNX、TensorRT或特定引擎格式是关键。这一步的挑战在于LLM的动态形状支持和复杂的注意力机制对导出工具链要求很高。注意在生产部署时必须考虑安全性和限流。API应提供简单的API密钥认证和请求速率限制配置防止滥用。同时对于生成的内容可以考虑集成轻量级的内容安全过滤。4. 典型应用场景与实战流水线理论说了这么多我们来看几个ultralytics/llm如何融入真实工作流的例子。这些场景完美结合了Ultralytics的CV老本行和LLM的新能力。4.1 场景一智能图像描述与问答系统这是最直接的多模态应用。用YOLO“看”图用LLM“说”图。from ultralytics import YOLO, LLM import cv2 # 1. CV部分目标检测与信息提取 cv_model YOLO(yolov8n.pt) img cv2.imread(street.jpg) detections cv_model(img)[0] # 提取检测到的物体列表 objects [] for box in detections.boxes: cls_id int(box.cls) conf float(box.conf) cls_name detections.names[cls_id] objects.append(f{cls_name} (confidence: {conf:.2f})) object_description , .join(objects) # 2. LLM部分生成描述和回答 llm LLM(Qwen/Qwen2.5-7B-Instruct) # 生成图像描述 prompt_describe f Based on the following list of objects detected in an image, generate a concise and vivid description of the scene. Objects: {object_description} Description: description llm.predict(prompt_describe).text print(fImage Description: {description}) # 基于图像内容进行问答 prompt_qa f You are an AI that understands visual scenes. Here is a list of objects in an image: {object_description}. Now answer the following question: Is it safe to cross the street in this image? Explain why. Answer: answer llm.predict(prompt_qa).text print(fQA: {answer})实战要点提示词工程是关键LLM并不知道“confidence: 0.95”是什么意思。你需要用自然语言清晰地告诉它任务、输入格式和期望的输出格式。在提示词中明确角色“You are an AI that understands visual scenes”和指令非常有效。信息过滤不是所有检测到的物体都需要喂给LLM。可以设置一个置信度阈值如0.5只传递高置信度的物体避免噪声干扰LLM的判断。成本与延迟权衡这个流水线涉及两次模型推理CVLLM。对于实时应用需要优化。可以考虑使用更小的YOLO模型如nano版和更小的LLM如1B-3B参数或者将LLM调用异步化。4.2 场景二自动化报告生成与文档摘要在处理大量视觉数据如监控录像、卫星图像、工业质检图片后往往需要生成文本报告。import glob from ultralytics import YOLO, LLM import pandas as pd # 假设我们有一批工业零件质检图片 image_paths glob.glob(/质检图片/*.jpg) results [] cv_model YOLO(yolov8s-seg.pt) # 使用分割模型获取更精确的缺陷区域 llm LLM(gemma-2-2b-it) # 使用一个更小巧的指令模型 for img_path in image_paths: detections cv_model(img_path)[0] # ... 分析检测结果统计缺陷数量、类型、位置 ... defect_count len([b for b in detections.boxes if b.cls 1]) # 假设cls1是缺陷 results.append({ image_id: img_path, defect_count: defect_count, # ... 其他指标 }) # 将批次结果汇总成DataFrame df_results pd.DataFrame(results) batch_summary df_results[defect_count].describe().to_string() # 使用LLM生成自然语言报告 report_prompt f You are a quality control analyst. Below is a statistical summary of defect counts from a batch of industrial part inspections: {batch_summary} Please write a brief quality inspection report. Highlight the overall pass/fail rate, mention any images with unusually high defect counts (outliers), and suggest next steps. Report: inspection_report llm.predict(report_prompt, max_tokens300).text # 将报告保存或发送 with open(inspection_report.txt, w) as f: f.write(inspection_report) print(报告已生成。)在这个场景中ultralytics/llm的价值在于标准化输出处理它将CV模型的“机器语言”边界框、类别ID、置信度与LLM需要的“自然语言”桥接起来。灵活的报告模板通过修改提示词你可以轻松生成不同风格、面向不同受众如工程师、管理层的报告而无需重写任何代码逻辑。批处理友好项目底层的推理优化如vLLM后端能有效处理这种“汇总数据后一次性生成报告”的批处理任务提升吞吐量。4.3 场景三交互式智能体与复杂任务规划更进阶的应用是构建一个能接受复杂指令、自主调用CV工具和LLM的智能体。# 伪代码展示概念 class VisionAssistant: def __init__(self): self.cv_model YOLO(yolov8l.pt) self.llm LLM(llama-3.2-3b-instruct) self.history [] def execute_task(self, user_command: str): # Step 1: 让LLM解析用户指令判断是否需要视觉感知并生成“思考过程” planning_prompt f User command: {user_command} Available tools: 1. object_detection(image_path) - list of objects. Based on the command, decide: 1. Do I need to use the vision tool? If yes, what image file is likely needed? (extract from command or ask user) 2. What is the step-by-step plan? Output in JSON: {{need_vision: bool, image_file: str or null, plan: [step1, step2...]}} plan self.llm.predict(planning_prompt, temperature0.1) # 低温度确保结构化输出 plan_json json.loads(plan.text) if plan_json[need_vision] and plan_json[image_file]: # Step 2: 执行视觉感知 img_path plan_json[image_file] detections self.cv_model(img_path)[0] vision_context self._format_detections(detections) # Step 3: 结合视觉上下文生成最终回答 answer_prompt f Original user command: {user_command} Visual context from image {img_path}: {vision_context} Based on the above, provide a helpful and accurate final answer. Answer: final_answer self.llm.predict(answer_prompt).text return final_answer else: # 纯文本任务直接回答 return self.llm.predict(user_command).text # 使用示例 assistant VisionAssistant() # 用户说“告诉我这张‘room.jpg’里有哪些电子产品并估算它们的总价值。” result assistant.execute_task(Tell me what electronic devices are in room.jpg and estimate their total value.) print(result)这个场景揭示了未来方向ultralytics/llm可以作为多模态智能体的“大脑”LLM与“眼睛”YOLO之间的粘合剂。通过标准化的APILLM可以轻松地“调用”CV模型获取信息从而完成更复杂的任务。项目的价值在于让这种集成变得异常简单。5. 常见问题、优化策略与避坑实录在实际使用和集成ultralytics/llm这类工具时你会遇到一系列典型问题。下面是我根据经验总结的“避坑指南”。5.1 资源与性能问题问题1模型加载慢显存占用高。排查首先确认你加载的是否为原始的全精度模型如meta-llama/Llama-2-7b。这类模型加载慢且占用大量显存。解决使用量化模型这是最有效的办法。优先寻找或自己转换GGUF格式的模型如llama-2-7b.Q4_K_M.gguf。使用LLM(‘path/to/model.gguf’)加载ultralytics/llm会自动切换到llama.cpp后端显存占用会骤降。指定设备明确指定device‘cpu’或device‘cuda:0’。有时自动检测可能不如意。利用磁盘缓存确保Hugging Face的模型缓存目录~/.cache/huggingface/位于高速SSD上能显著加快重复加载速度。问题2推理速度慢吞吐量上不去。排查检查任务类型。如果是处理大量独立的提示词批处理使用默认的transformers逐条推理效率很低。解决启用批处理如果API支持务必使用model.predict_batch(prompts_list)。在底层这可能会触发使用vLLM等支持连续批处理continuous batching的后端它能同时处理多个处于不同生成阶段的请求极大提升GPU利用率。调整生成参数适当降低max_tokens。生成的长度是影响速度的主要因素。如果可能在提示词中要求模型“简短回答”。升级后端如果项目支持手动选择后端在有多GPU或高吞吐需求的服务端环境尝试切换到backend‘vllm’。5.2 模型与输出质量问题问题3模型回答质量差胡言乱语或答非所问。排查A指令遵循问题你是否使用了正确的聊天模板直接给Llama-3-Instruct模型发送纯文本问题效果远不如按照[INST] SYS.../SYS ... [/INST]的格式发送。ultralytics/llm的chat()方法应自动处理此问题。排查B温度问题temperature参数是否设置过高过高的温度会导致随机性太强。对于事实性任务尝试将其设为0.1或0.2。排查C模型能力问题你用的模型是否太小或不适合该任务一个1B参数的模型无法胜任复杂的推理任务。对于较难的任务考虑升级到7B甚至更大参数的模型。解决系统提示词System Prompt是神器。在chat()的messages列表开头加入一个role: system的消息明确告诉模型它的角色和任务边界能极大改善回答质量。例如“你是一个专业的软件工程师助手只回答与编程相关的问题对其他问题礼貌拒绝。”问题4微调后模型“失忆”或过拟合。排查检查你的微调数据集。是否数据量太少100条数据多样性是否不足是否只包含了专业数据没有任何通用对话数据解决数据混合在微调数据中混入一定比例如10%-20%的通用指令数据如Alpaca格式数据。这有助于模型保留原有知识。使用LoRA务必使用LoRA等高效微调方法。它们通过只训练少量适配器参数能更好地避免对原始模型知识的破坏。控制训练强度减少训练轮数epochs降低学习率learning_rate。使用更小的batch_size并增加gradient_accumulation_steps来稳定训练。持续评估在训练过程中不仅看训练集损失下降更要关注一个保留的验证集上的表现。如果验证集损失很早就开始上升说明过拟合了应立即停止训练。5.3 部署与集成问题问题5启动的API服务并发能力差请求一多就崩溃或延迟飙升。排查默认的model.serve()可能只启动了单个工作进程无法处理并发请求。解决调整服务参数查看serve()方法是否有workers或max_concurrent_requests参数。增加工作进程数或并发数。使用专业部署对于生产环境不要依赖开发用的内置服务器。将模型导出并使用专业的推理服务器如Triton Inference Server或TensorRT-LLM进行部署它们具备成熟的动态批处理、内存管理和多模型服务能力。前置负载均衡在API服务前架设Nginx等负载均衡器将请求分发到多个后端服务实例多个GPU卡或多个容器。问题6如何将LLM服务与现有的Web应用如Flask/Django集成最佳实践不要在主应用进程中直接加载LLM模型。这会导致应用启动极慢且内存管理困难。推荐架构将ultralytics/llm模型作为一个独立的微服务部署如上述API服务。在你的Flask/Django应用中使用requests或httpx库通过HTTP客户端调用这个微服务的API。这样实现了解耦Web应用可以轻松重启、扩展LLM服务也可以独立升级、扩缩容。同时你可以为LLM服务设置独立的身份验证和监控。ultralytics/llm项目目前还处于早期阶段它的最终形态将取决于社区的贡献和实际需求。但它的愿景是明确的让强大的大语言模型变得像使用YOLO做目标检测一样简单、高效。对于广大AI应用开发者尤其是已经身处Ultralytics生态中的开发者来说这无疑是一个令人兴奋的新工具。它可能不会解决所有问题但它极大地简化了从“有一个LLM想法”到“做出一个LLM原型”的路径。接下来要做的就是下载它用起来在真实的项目中感受它带来的效率提升并贡献你的代码和想法共同塑造这个工具的未

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2576012.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…