基于Django与Celery的自动化爬虫Web系统设计与实现

news2026/5/1 8:31:44
1. 项目概述一个自动化内容抓取与展示的Web应用最近在折腾一个挺有意思的玩意儿叫autoclaw-web。光看名字auto自动、claw抓取、web网页核心功能已经呼之欲出了——一个自动化的网页内容抓取与展示系统。这玩意儿本质上是一个Web应用它把后端的数据抓取、处理逻辑和前端的可视化界面给打通了让你能通过一个漂亮的网页去配置、管理和查看从互联网上自动抓取回来的结构化数据。想想看无论是追踪竞争对手的产品价格变动监控特定新闻源的最新动态还是定期收集某个论坛的热门话题这些重复、枯燥的“爬虫”工作如果每次都要手动写脚本、运行、再看一堆日志或原始数据效率实在太低而且对非技术人员极不友好。autoclaw-web要解决的就是这个问题将爬虫任务配置化、调度自动化、结果可视化让数据采集这件事变得像在后台运行一个定时任务一样简单并且所有人都能通过浏览器轻松查看结果。它适合谁呢首先肯定是开发者尤其是那些需要为业务部门提供数据支持但又不想反复被“帮我抓一下这个网站”这类需求打扰的同行。通过这个系统你可以把常见的抓取规则配置好业务同事自己就能查看数据。其次是数据分析师、市场运营人员他们可能不懂复杂的Python爬虫但完全可以通过这个系统的前端界面理解数据来源并基于清晰展示的结果做进一步分析。简单说它降低了数据采集的技术门槛提升了数据消费的体验。2. 核心架构与设计思路拆解2.1 为什么是“Web应用”而非单纯脚本很多人的第一版爬虫都是一个独立的Python脚本。这没问题但它有几个固有缺陷环境依赖强需要安装Python、各种库、执行不便捷需要登录服务器或本地运行命令、结果查看困难通常是CSV或日志文件、缺乏调度与监控。autoclaw-web选择Web应用的形式正是为了系统性解决这些问题。前端Frontend提供用户交互界面。至少包含任务配置页面设置目标URL、抓取规则、调度周期、任务列表与状态监控页面、数据结果展示页面。技术选型上现代前端框架如Vue.js或React是自然之选它们能构建出响应迅速、体验良好的单页面应用SPA让管理操作像使用普通网站一样流畅。后端Backend作为应用的大脑。它需要提供RESTful API供前端调用处理核心业务逻辑接收前端传来的抓取任务配置将其转化为可执行的爬虫作业管理任务队列与调度比如使用Celery Redis执行实际的网页抓取、解析、数据清洗与存储并将状态和结果返回给前端。Python的Flask或Django框架非常适合快速构建这样的API服务生态中也有大量爬虫相关的库如requests,BeautifulSoup,Scrapy,Playwright等可供集成。数据存储Data Storage需要存储两类数据。一是元数据任务配置、执行日志、用户信息等。这类数据关系性强适合用传统的关系型数据库如PostgreSQL或MySQL。二是抓取结果数据从目标网页提取的结构化内容。这部分数据格式可能多变且查询模式以展示和简单筛选为主使用MongoDB这类文档数据库可能更灵活。当然如果数据结构稳定且简单全部使用关系型数据库也未尝不可。异步任务队列Message Queue Worker这是实现“自动化”和“调度”的关键。Web请求应该是短时、快速的不能把耗时的爬虫任务阻塞在其中。因此常见的架构是后端API接收到创建任务的请求后立即返回“已接收”同时将任务详情放入一个消息队列如Redis。后端的工作进程Worker从队列中取出任务并执行实际的抓取、解析和存储操作。最后通过数据库更新状态或通过WebSocket等方式通知前端任务完成。Celery是Python生态中处理此类异步任务的事实标准。2.2 技术栈选型的背后逻辑项目命名为my3rdstory/autoclaw-web暗示这很可能是一个个人或小团队项目托管在GitHub上。因此技术栈的选型会倾向于高效、轻量、易于开发和部署。后端语言Python几乎是爬虫领域的“官方语言”。库生态极其丰富requests,lxml,parsel,Scrapy,Playwright从简单的静态页面抓取到复杂的动态页面渲染模拟浏览器都能覆盖。用Flask可以极简起步快速搭建API用Django则能获得自带的管理后台、ORM等“开箱即用”的便利适合需要快速实现用户认证、权限管理的场景。前端框架Vue.js/React两者皆可。Vue.js可能上手更平滑对于全栈开发者后端兼顾前端更友好。React的生态和组件库更庞大。选择哪一个更多取决于开发者的熟悉程度。核心目标是快速构建出功能完善的管理界面。任务队列Celery RedisCelery与Python结合无缝文档丰富社区成熟。Redis既可作为Celery的消息代理Broker又能作为结果后端Result Backend还能缓存一些临时数据一举多得。数据库PostgreSQL MongoDB / 仅 PostgreSQLPostgreSQL的可靠性和功能强大毋庸置疑。如果抓取结果数据结构复杂多变引入MongoDB可以减轻Schema设计的压力。但对于初期版本为了简化部署和运维完全可以只用PostgreSQL利用其JSON字段类型来存储非结构化的抓取结果这在很多场景下已经足够。部署Docker Docker Compose这是让项目真正变得“可交付、易复现”的关键。将前端、后端、Redis、数据库等每个组件都容器化通过一个docker-compose.yml文件定义它们之间的关系和配置。这样任何想要部署autoclaw-web的人只需要安装Docker和Docker Compose然后一条命令就能让整个系统跑起来彻底避免了“在我机器上是好的”这类环境问题。注意技术选型没有绝对的对错只有是否适合当前阶段的需求和团队能力。对于autoclaw-web这样的项目快速实现核心功能、降低维护复杂度是前期更重要的目标。3. 核心功能模块深度解析3.1 可配置化的抓取任务管理这是系统的灵魂。一个优秀的抓取任务配置界面应该让用户即使不懂HTML和CSS选择器也能通过直观的方式定义要抓取什么。1. 基础配置任务名称与描述便于识别和管理。目标URL支持单URL也支持通过规则生成URL列表例如分页URL模式https://example.com/page{page}。请求方法/头信息/参数允许配置GET/POST自定义User-Agent、Cookie等以应对简单的反爬策略。调度设置支持一次性执行、定时循环Cron表达式如0 */6 * * *表示每6小时一次或手动触发。2. 核心难点解析规则配置如何让用户定义“从网页的哪个位置提取哪个字段”这里有几种设计思路复杂度递增CSS选择器 / XPath 输入框最直接面向开发者。为每个要提取的字段如“标题”、“价格”、“发布时间”提供一个输入框让用户填写对应的CSS选择器或XPath。系统后台使用parsel或lxml库进行提取。可视化点选高级功能提供一个浏览器插件或内嵌浏览器组件用户打开目标网页后直接用鼠标点击想要抓取的元素系统自动生成对应的选择器。这大大提升了易用性但实现复杂度较高。JSON/JSON-LD、微数据等结构化数据提取很多网站特别是电商和内容网站会在页面中嵌入结构化数据。系统可以优先尝试从script typeapplication/ldjson标签中提取信息这通常是最准确、最稳定的方式。3. 数据后处理配置提取到原始文本后通常需要清洗。字符串处理配置正则表达式进行替换、截取。HTML标签清理去除提取内容中残留的HTML标签。类型转换将字符串转换为数字、日期等。数据校验检查字段是否为空、是否符合特定格式用于判断本次抓取是否成功。实操心得在初期实现CSS选择器配置就足够了。重点是要做好配置的验证和预览功能。用户填写完选择器后提供一个“测试”按钮系统立即用当前配置去抓取一次目标页面并将提取到的数据以表格或JSON形式预览给用户看。这能极大减少配置错误提升用户体验。3.2 健壮的任务调度与执行引擎任务配置好后如何可靠、稳定地执行是另一个核心。1. 任务队列管理使用Celery可以创建多个优先级不同的队列。例如high_priority用于立即执行的手动任务或重要监控任务。default用于常规的定时抓取任务。low_priority用于数据量巨大、不紧急的批量抓取。 这样可以通过启动不同数量的Worker进程来分配计算资源。2. 任务状态机一个任务应该有明确的状态流转并在前端清晰展示PENDING已创建 -RECEIVED队列已接收 -STARTEDWorker开始执行 -SUCCESS/FAILED最终状态。 对于FAILED状态必须记录详细的错误日志如网络超时、选择器失效、页面结构变更等方便排查。3. 反爬虫策略应对这是爬虫项目的永恒课题。在系统层面需要内置一些基本策略请求速率限制在任务配置或全局设置中可以控制对同一域名的请求间隔避免过快访问。User-Agent轮换维护一个池子每次请求随机选用。代理IP支持允许为任务配置代理服务器这对于抓取有地域限制或访问频率严格的网站至关重要。系统需要设计一个代理IP的管理模块包括IP的添加、测试、失效剔除等。失败重试与退避任务执行失败如网络错误时不应立即放弃。Celery支持自动重试并可以设置指数退避时间如第一次重试等2秒第二次等4秒以此类推。4. 结果去重与增量抓取对于周期性任务我们通常只关心新内容。系统需要支持基于特定字段如文章ID、URL本身进行哈希去重。更高级的实现可以记录每次抓取的数据快照并通过比较差异只存储发生变化的部分实现真正的增量更新。3.3 清晰的数据展示与导出抓取数据的最终目的是被消费。一个友好的展示界面至关重要。1. 列表视图以表格形式展示所有抓取到的数据记录。需要支持分页避免数据量过大时页面卡死。排序按任意字段升序/降序排列。筛选根据字段值进行过滤如“价格大于100”、“标题包含某关键词”。字段可见性选择用户可以选择显示/隐藏某些字段专注于关键信息。2. 图表可视化进阶功能对于数值型、时间序列数据简单的图表能直观反映趋势。例如监控价格的任务可以集成一个简单的折线图库如ECharts展示某个商品历史价格的变化曲线。这能立刻提升系统的数据洞察价值。3. 数据导出必须支持将筛选后的数据导出为常用格式如CSV、Excel或JSON方便用户进行离线分析或导入到其他系统。4. 任务监控仪表盘一个总览页面显示诸如“总任务数”、“24小时内成功/失败任务数”、“最近抓取的数据量”等关键指标让管理员对系统运行状况一目了然。4. 从零开始的实操部署与配置指南假设我们采用一个经典的技术栈Django后端API 管理后台、Vue.js前端、Celery Redis异步任务、PostgreSQL主数据库、Docker Compose部署。下面是如何一步步搭建起来。4.1 项目结构与初始化首先创建项目目录并初始化后端Django项目。# 创建项目根目录 mkdir autoclaw-web cd autoclaw-web # 创建后端目录并初始化Django项目 mkdir backend cd backend python -m venv venv # 创建虚拟环境 source venv/bin/activate # 激活虚拟环境 (Linux/macOS) # venv\Scripts\activate # Windows pip install django django-rest-framework celery redis psycopg2-binary requests beautifulsoup4 playwright django-admin startproject config . # 注意末尾的点表示在当前目录创建 python manage.py startapp crawler # 创建爬虫核心应用 python manage.py startapp tasks # 创建任务管理应用同时创建前端目录并初始化Vue项目假设使用Vue CLI。cd .. # 回到项目根目录 # 确保已全局安装 vue/cli vue create frontend # 在交互式命令行中选择手动配置添加Router, Vuex等常用依赖。4.2 后端核心模型与API设计在backend/crawler/models.py中我们定义核心数据模型。from django.db import models from django.contrib.auth.models import User import jsonfield.fields # 需要安装 django-jsonfield class CrawlSite(models.Model): 抓取的目标网站配置 name models.CharField(max_length255) base_url models.URLField() description models.TextField(blankTrue) created_at models.DateTimeField(auto_now_addTrue) created_by models.ForeignKey(User, on_deletemodels.CASCADE) def __str__(self): return self.name class CrawlTask(models.Model): 具体的抓取任务 TASK_STATUS ( (pending, 等待中), (running, 运行中), (success, 成功), (failed, 失败), ) site models.ForeignKey(CrawlSite, on_deletemodels.CASCADE, related_nametasks) name models.CharField(max_length255) # 使用JSONField存储灵活的配置如URL模板、选择器、请求头等 config jsonfield.fields.JSONField(defaultdict) schedule models.CharField(max_length100, help_textCron表达式如 0 */2 * * * 表示每2小时) # 定时调度 is_active models.BooleanField(defaultTrue) status models.CharField(max_length20, choicesTASK_STATUS, defaultpending) last_run_at models.DateTimeField(nullTrue, blankTrue) next_run_at models.DateTimeField(nullTrue, blankTrue) created_at models.DateTimeField(auto_now_addTrue) class CrawlResult(models.Model): 每次任务执行的结果数据 task models.ForeignKey(CrawlTask, on_deletemodels.CASCADE, related_nameresults) data jsonfield.fields.JSONField(defaultdict) # 存储抓取到的结构化数据 raw_content models.TextField(blankTrue) # 可选存储原始HTML用于调试 logs models.TextField(blankTrue) # 执行日志 status models.CharField(max_length20, choicesCrawlTask.TASK_STATUS) started_at models.DateTimeField() finished_at models.DateTimeField(nullTrue, blankTrue)然后使用Django REST Framework创建对应的序列化器serializers.py和视图集views.py暴露为REST API供前端调用。例如/api/tasks/用于任务列表和创建/api/tasks/id/run/用于手动触发任务。4.3 Celery异步任务集成在backend/config目录下创建celery.py文件来配置Celery。import os from celery import Celery os.environ.setdefault(DJANGO_SETTINGS_MODULE, config.settings) app Celery(autoclaw) app.config_from_object(django.conf:settings, namespaceCELERY) app.autodiscover_tasks() # 自动发现tasks.py文件 app.task(bindTrue) def debug_task(self): print(fRequest: {self.request!r})在config/__init__.py中引入确保Django启动时加载Celery。然后在crawler/tasks.py中编写核心的爬虫任务函数。from celery import shared_task from .models import CrawlTask, CrawlResult import requests from bs4 import BeautifulSoup import time from django.utils import timezone shared_task(bindTrue, max_retries3) def execute_crawl_task(self, task_id): task CrawlTask.objects.get(idtask_id) result CrawlResult.objects.create(tasktask, statusrunning, started_attimezone.now()) try: config task.config url config.get(url) headers config.get(headers, {}) selectors config.get(selectors, {}) # 例如 {title: .product-title, price: .price} # 1. 发送请求 response requests.get(url, headersheaders, timeout10) response.raise_for_status() # 2. 解析页面 soup BeautifulSoup(response.content, html.parser) extracted_data {} for field, selector in selectors.items(): element soup.select_one(selector) extracted_data[field] element.get_text(stripTrue) if element else None # 3. 存储结果 result.data extracted_data result.status success result.logs f抓取成功于 {timezone.now()} # 这里可以添加更复杂的数据清洗和存储逻辑 except requests.exceptions.RequestException as e: result.status failed result.logs f网络请求失败: {str(e)} # 触发Celery重试 raise self.retry(exce, countdown60) # 60秒后重试 except Exception as e: result.status failed result.logs f解析失败或其他错误: {str(e)} finally: result.finished_at timezone.now() result.save() # 更新任务状态 task.status result.status task.last_run_at result.started_at # 计算下次运行时间如果是定时任务 if task.is_active and task.schedule: # 这里需要集成一个调度器如 django-celery-beat pass task.save() return result.id4.4 前端界面开发要点前端使用Vue.js通过Axios调用后端API。任务列表页调用/api/tasks/获取任务以表格展示。包含“启用/禁用”、“立即执行”、“编辑”、“删除”等操作按钮。任务创建/编辑页一个表单包含任务名称、目标URL、调度Cron表达式等字段。最关键的是一个动态字段映射编辑器允许用户添加多个“字段名”并为每个字段名配置对应的“CSS选择器”。这里可以做成一个可动态添加/删除的列表。数据展示页对应某个任务调用/api/tasks/id/results/获取所有历史抓取结果以表格形式展示data字段需要将JSON展开成表格列。集成vue-router实现页面间跳转。4.5 使用Docker Compose一键部署在项目根目录创建docker-compose.yml这是实现便捷部署的核心。version: 3.8 services: db: image: postgres:14-alpine environment: POSTGRES_DB: autoclaw POSTGRES_USER: autoclaw_user POSTGRES_PASSWORD: a_strong_password_here volumes: - postgres_data:/var/lib/postgresql/data healthcheck: test: [CMD-SHELL, pg_isready -U autoclaw_user] interval: 10s timeout: 5s retries: 5 redis: image: redis:7-alpine command: redis-server --appendonly yes volumes: - redis_data:/data healthcheck: test: [CMD, redis-cli, ping] interval: 10s timeout: 5s retries: 5 backend: build: ./backend # 假设backend目录下有Dockerfile command: sh -c python manage.py migrate python manage.py runserver 0.0.0.0:8000 volumes: - ./backend:/app ports: - 8000:8000 environment: - DATABASE_URLpostgres://autoclaw_user:a_strong_password_heredb:5432/autoclaw - CELERY_BROKER_URLredis://redis:6379/0 depends_on: db: condition: service_healthy redis: condition: service_healthy celery_worker: build: ./backend command: celery -A config worker --loglevelinfo volumes: - ./backend:/app environment: - DATABASE_URLpostgres://autoclaw_user:a_strong_password_heredb:5432/autoclaw - CELERY_BROKER_URLredis://redis:6379/0 depends_on: - backend - redis celery_beat: build: ./backend command: celery -A config beat --loglevelinfo volumes: - ./backend:/app environment: - DATABASE_URLpostgres://autoclaw_user:a_strong_password_heredb:5432/autoclaw - CELERY_BROKER_URLredis://redis:6379/0 depends_on: - backend - redis frontend: build: ./frontend # 假设frontend目录下有Dockerfile使用nginx作为静态服务器 ports: - 8080:80 depends_on: - backend volumes: postgres_data: redis_data:对应的backend/Dockerfile可能很简单FROM python:3.10-slim WORKDIR /app COPY requirements.txt . RUN pip install --no-cache-dir -r requirements.txt COPY . . CMD [python, manage.py, runserver, 0.0.0.0:8000]现在任何用户只需要在拥有这个docker-compose.yml文件的目录下运行docker-compose up -d就能启动一个完整的autoclaw-web系统。前端访问http://localhost:8080后端API在http://localhost:8000。5. 避坑指南与进阶优化建议在实际开发和运营这样一个系统时你会遇到不少坑。下面是一些从经验中总结出来的要点。5.1 常见问题与排查问题现象可能原因排查步骤与解决方案任务状态一直为pendingCelery Worker未启动消息队列Redis连接失败任务未正确发送到队列。1. 检查celery_worker容器日志docker-compose logs celery_worker。2. 检查Redis服务是否健康网络是否连通。3. 在后端Django shell中手动调用execute_crawl_task.delay(task_id)看是否报错。抓取失败错误日志显示超时或连接拒绝目标网站屏蔽了请求IP被限制网络不稳定。1. 在任务配置中增加请求头模拟真实浏览器User-Agent。2. 在代码中添加随机延迟time.sleep(random.uniform(1, 3))。3. 考虑引入代理IP池并在任务配置中增加代理设置选项。抓取成功但数据为空extracted_data全为None网页结构已更新CSS选择器失效页面内容是JavaScript动态加载的。1.立即使用“测试”功能用原选择器在浏览器开发者工具中验证。2. 如果页面是动态渲染需要升级爬虫引擎。将requestsBeautifulSoup替换为Playwright或Selenium这类无头浏览器工具它们能执行JS并获取渲染后的DOM。注意这会使资源消耗CPU/内存大幅增加。数据库存储缓慢页面查询卡顿抓取结果数据量增长过快缺少合适的数据库索引。1. 为CrawlResult表中常用于查询的字段建立索引如task_id,status,started_at。2. 实施数据归档策略。定期将历史数据如3个月前的从主表迁移到归档表或者直接导出为文件后删除保持主表轻量。定时任务不按计划执行celery beat服务未运行或配置错误系统时间不同步。1. 检查celery_beat容器日志。2. 确保在Django设置中正确配置了CELERY_BEAT_SCHEDULE并使用了可靠的调度器存储如django-celery-beat扩展将调度计划存于数据库。3. 确保所有容器与宿主机的时区设置一致。5.2 进阶优化与功能扩展当基础版本稳定运行后可以考虑以下方向进行深化权限与多租户目前模型关联了Django自带的User。可以在此基础上构建更复杂的权限系统例如用户只能查看和管理自己创建的任务和站点。这对于提供给团队内部多人使用是必要的。更强大的解析器集成多种解析方式。除了CSS选择器可以支持XPath、正则表达式甚至基于AI的视觉解析识别页面上的固定区域。提供一个“解析器插件”机制让高级用户可以编写自定义的Python解析函数。数据质量监控与告警不仅仅是任务失败告警。可以定义数据质量规则例如“价格字段不应为空”、“价格波动不应超过20%”。当抓取到的数据违反规则时系统自动发送告警邮件、钉钉、企业微信等。性能与可扩展性当任务量极大时单个Celery Worker可能成为瓶颈。可以使用Celery的-c参数增加Worker的并发数或者启动多个Worker容器。对于IO密集型的爬虫任务并发数可以设置得较高如50-100。同时考虑将不同类型的任务静态页抓取、动态页渲染分配到不同的专用Worker队列中。配置导入/导出与模板允许用户将配置好的任务导出为JSON或YAML文件方便分享和迁移。甚至可以建立“任务模板库”将针对常见网站如电商、新闻、社交媒体的抓取配置沉淀下来新用户可以直接复用。最后一点个人体会开发autoclaw-web这类系统最大的挑战往往不是爬虫技术本身而是工程化和用户体验。如何设计一个既灵活又不易出错的配置界面如何保证数百个定时任务在数月内稳定可靠地运行如何让生成的数据易于被下游系统消费这些问题需要你在架构设计初期就进行深思。从一个能跑通的最小可行产品MVP开始然后根据实际使用反馈像打磨产品一样迭代每一个细节是让项目从“玩具”走向“工具”的关键。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2571454.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…