Python 爬虫进阶技巧:XPath 精准解析复杂 HTML 页面实战

news2026/5/8 8:44:20
前言在 Python 爬虫开发领域面对结构复杂、层级嵌套深、标签冗余的 HTML 页面时基础的字符串匹配、正则表达式已无法满足高效、精准的数据提取需求XPath 作为 W3C 标准的 XML/HTML 文档查询语言凭借其简洁的语法、强大的节点定位能力和高效的解析性能成为爬虫工程师进阶必备的核心技能。相较于 BeautifulSoup 等解析库XPath 在复杂页面的精准筛选、层级遍历、属性匹配、文本提取等场景中具备不可替代的优势能够快速定位目标数据大幅提升爬虫的开发效率与数据采集准确率。本文将从 XPath 核心语法、爬虫环境配置、基础实战、高阶技巧、复杂页面专项解析、性能优化、避坑指南全维度展开结合真实企业级 HTML 页面场景通过可直接运行的代码案例、底层原理剖析、实战化应用场景帮助开发者彻底掌握 XPath 精准解析能力解决爬虫开发中复杂 HTML 数据提取的核心痛点。本文使用的核心依赖库及官方文档链接如下lxmlPython 高性能 XML/HTML 解析库原生支持 XPath 语法是爬虫 XPath 解析的首选库requestsPython HTTP 请求库用于获取目标 HTML 页面源码Python 官方文档Python 基础环境依赖W3C XPath 官方规范XPath 语法标准参考文档一、XPath 基础认知与爬虫开发环境配置1.1 XPath 核心定义与爬虫应用价值XPath 全称 XML Path Language是一门用于在 XML/HTML 文档中查找信息的语言可遍历文档中的元素、属性、文本、注释等所有节点。HTML 本质是 XML 的衍生语言因此 XPath 可完美适配 HTML 文档解析。在爬虫开发中XPath 的核心价值体现在支持绝对路径与相对路径定位适配任意层级的 HTML 嵌套结构支持多条件筛选、模糊匹配、逻辑运算实现数据精准筛选支持节点关系遍历父节点、子节点、兄弟节点解决无唯一标识节点的提取问题解析速度远超正则表达式内存占用低适配大规模爬虫采集语法简洁易记学习成本低可快速落地复杂页面解析1.2 XPath 节点基础概念HTML 文档是由节点构成的树形结构XPath 的所有操作均基于节点展开核心节点类型如下表格节点类型定义示例元素节点HTML 标签文档的核心节点div、p、a属性节点标签的属性以开头idcontent、classitem文本节点标签包裹的纯文本内容span爬虫实战/span中的爬虫实战根节点HTML 文档的顶级节点html注释节点HTML 注释内容!-- 测试注释 --1.3 爬虫开发环境安装与配置基于 Python 的 XPath 爬虫开发核心依赖requests请求页面和lxml解析 HTML 执行 XPath安装命令如下bash运行# 安装核心依赖库 pip install requests lxml -i https://pypi.tuna.tsinghua.edu.cn/simple环境验证代码python运行# 验证环境是否安装成功 import requests from lxml import etree # 打印库版本确认安装有效 print(requests版本, requests.__version__) print(lxml版本, etree.LXML_VERSION)运行后无报错且输出版本信息代表环境配置完成可进行后续开发。1.4 lxmlXPath 解析核心工作流程爬虫使用 lxml 解析 HTML 并执行 XPath 的底层流程分为 4 步这是理解所有实战代码的核心原理请求获取通过 requests 发送 HTTP 请求获取目标页面的 HTML 原始字符串文档转换lxml 的etree.HTML()方法将 HTML 字符串转换为可解析的 Element 对象树形结构XPath 查询调用 Element 对象的xpath()方法传入 XPath 语法规则执行节点查询结果处理XPath 返回列表类型结果提取列表中的元素 / 属性 / 文本完成数据解析核心原理lxml 底层基于 C 语言实现的 libxml2 解析器将 HTML 文档加载为 DOM 树形结构XPath 通过路径表达式遍历 DOM 树快速匹配目标节点相比 Python 纯代码遍历 DOM性能提升 10 倍以上。二、XPath 核心语法详解爬虫必备XPath 语法分为路径表达式、轴定位、谓语筛选、函数四大核心模块是精准解析复杂 HTML 的基础所有语法均适配爬虫实战场景。2.1 路径表达式基础定位路径表达式是 XPath 最基础的定位方式分为绝对路径和相对路径爬虫优先使用相对路径鲁棒性更强页面结构微调不影响解析。表格表达式含义爬虫应用场景/从根节点开始选取绝对路径定位文档顶级节点//从任意节点开始选取相对路径爬虫最常用无视层级定位目标标签.选取当前节点嵌套解析时复用当前节点..选取当前节点的父节点提取父级节点数据选取属性提取 href、src、id 等属性值标签名选取指定标签的所有节点选取 div、a、span 等元素基础示例python运行# //div选取页面中所有div标签 # //div/class选取所有div标签的class属性 # //div/p选取所有div下的直接子节点p2.2 谓语条件筛选谓语是 XPath 的核心筛选语法写在[]中用于精准定位符合条件的节点解决爬虫中多重复标签的筛选问题。表格谓语语法含义示例[n]选取第 n 个节点n 从 1 开始//div[1]选取第一个 div[last()]选取最后一个节点//div[last()][last()-n]选取倒数第 n1 个节点//div[last()-1]倒数第二个[属性值]按属性精准匹配//div[idcontent][属性数值]数值比较筛选//span[price100]contains(属性,值)属性模糊匹配//div[contains(class,item)]text()值文本精准匹配//p[text()Python爬虫]2.3 常用函数文本 / 数据处理爬虫开发中文本提取、数据清洗是高频需求XPath 内置函数可直接完成处理无需额外编写 Python 代码。表格函数名称作用实战用法text()提取节点的纯文本内容//span/text()string()提取节点及其子节点所有文本string(//div[classcontent])normalize-space()去除文本首尾空格、换行normalize-space(//p/text())count()统计节点数量count(//div)starts-with()属性以指定字符开头//a[starts-with(href,https)]2.4 轴定位节点关系遍历复杂 HTML 页面中目标节点无唯一 id/class 时可通过轴定位遍历节点关系实现提取是进阶爬虫的核心技巧。表格轴名称含义示例parent::*父节点//span/parent::divchild::*直接子节点//div/child::pfollowing-sibling::*后续兄弟节点//h3/following-sibling::ppreceding-sibling::*前置兄弟节点//p/preceding-sibling::h3ancestor::*所有祖先节点//span/ancestor::div三、XPath 爬虫基础实战简单 HTML 页面解析本节以静态简单 HTML 页面为案例实现文本提取、属性提取、多节点筛选三大基础功能代码可直接运行附带原理剖析。3.1 测试 HTML 页面构造为方便测试我们构造一个包含基础标签、属性、文本的 HTML 字符串模拟真实网页源码python运行# 测试用HTML源码模拟网页 test_html html body div idcontainer h1 classtitlePython爬虫进阶实战/h1 div classitem pXPath解析技巧/p a hrefhttps://www.baidu.com百度/a span price99价格99元/span /div div classitem pSession会话保持/p a hrefhttps://www.csdn.netCSDN/a span price129价格129元/span /div /div /body /html 3.2 基础解析代码实现python运行# 导入依赖库 from lxml import etree # 1. 将HTML字符串转换为Element对象核心原理lxml加载DOM树 html_element etree.HTML(test_html) # 2. 基础XPath查询 # 提取标题文本 title html_element.xpath(//h1[classtitle]/text()) # 提取所有课程名称 course_names html_element.xpath(//div[classitem]/p/text()) # 提取所有链接地址 links html_element.xpath(//a/href) # 提取所有价格属性 prices html_element.xpath(//span/price) # 提取第一个课程的文本 first_course html_element.xpath(//div[classitem][1]/p/text()) # 模糊匹配class包含item的节点 fuzzy_items html_element.xpath(//div[contains(class,item)]/p/text()) # 3. 打印结果 print(标题, title) print(课程名称, course_names) print(链接地址, links) print(价格, prices) print(第一个课程, first_course) print(模糊匹配结果, fuzzy_items)3.3 代码原理与结果说明核心原理etree.HTML(test_html)lxml 将 HTML 字符串解析为 DOM 树形结构生成可执行 XPath 的 Element 对象这是 XPath 解析的前提xpath()方法接收 XPath 表达式遍历 DOM 树匹配节点返回结果固定为列表类型即使只有一个结果text()提取元素节点的文本子节点属性提取元素的属性节点。运行结果plaintext标题 [Python爬虫进阶实战] 课程名称 [XPath解析技巧, Session会话保持] 链接地址 [https://www.baidu.com, https://www.csdn.net] 价格 [99, 129] 第一个课程 [XPath解析技巧] 模糊匹配结果 [XPath解析技巧, Session会话保持]3.4 基础实战总结简单 HTML 页面中XPath 通过属性精准匹配 文本 / 属性提取即可完成数据解析代码简洁高效无需处理复杂的字符串切割逻辑。四、XPath 爬虫进阶实战复杂 HTML 页面解析真实爬虫场景中目标页面存在多层嵌套、无唯一标识、冗余标签、空格换行、动态生成 class等问题本节结合真实网页结构实现高阶解析技巧。4.1 实战场景爬取嵌套多层的文章详情页目标 HTML 结构特点多层 div 嵌套目标文本无唯一 class文本包含大量空格、换行目标节点无属性需通过兄弟节点定位需提取子节点所有文本4.1.1 复杂 HTML 源码python运行# 模拟复杂嵌套HTML页面 complex_html div classwrapper div classheader h2Python爬虫XPath高阶实战/h2 span classdate2025-12-20/span /div div classcontent div classarticle div classpara p XPath是爬虫必备技能支持多层嵌套解析 /p plxml库基于C语言实现解析速度极快/p div classtips i注意/i spanXPath索引从1开始而非0/span /div /div /div /div div classfooter p作者Python爬虫工程师/p /div /div 4.1.2 高阶 XPath 解析代码python运行from lxml import etree # 解析HTML element etree.HTML(complex_html) # 高阶技巧1去除文本空格与换行 clean_text element.xpath(normalize-space(//div[classpara]/p[1]/text())) print(清洗后文本, clean_text) # 高阶技巧2轴定位-通过子节点找父节点 parent_node element.xpath(//span[text()XPath索引从1开始而非0]/ancestor::div[classarticle]) print(父节点存在, len(parent_node) 0) # 高阶技巧3提取节点及其子节点所有文本 all_content element.xpath(string(//div[classpara])) print(全量文本, all_content.strip()) # 高阶技巧4兄弟节点定位 tip_content element.xpath(//i[text()注意]/following-sibling::span/text()) print(提示内容, tip_content) # 高阶技巧5多条件组合筛选 multi_filter element.xpath(//div[classwrapper]/div[classcontent]//p/text()) print(多条件筛选结果, multi_filter)4.1.3 核心原理与应用价值normalize-space()函数原理匹配文本节点后自动去除首尾空白字符、中间多余空格、换行符解决爬虫中文本脏数据问题轴定位原理通过节点的血缘关系遍历 DOM 树无需依赖目标节点的属性适配无标识节点的提取string()函数原理递归遍历目标节点下的所有子节点拼接所有文本内容替代多次text()提取大幅简化代码多条件筛选原理XPath 支持路径叠加通过层级 属性组合实现精准定位避免提取冗余数据。4.2 实战场景爬取表格数据HTML Table 解析表格是网页中常见的数据展示形式XPath 可快速解析表格的行、列、单元格数据无需手动遍历。4.2.1 表格 HTML 源码python运行table_html table border1 iddata_table tr th课程名称/th th难度/th th价格/th /tr tr tdXPath解析/td td进阶/td td99/td /tr tr tdSession会话/td td高阶/td td129/td /tr /table 4.2.2 表格解析代码python运行from lxml import etree element etree.HTML(table_html) # 提取表头 headers element.xpath(//table[iddata_table]//th/text()) # 提取所有行 rows element.xpath(//table[iddata_table]//tr) # 遍历行提取单元格数据 table_data [] for row in rows[1:]: # 跳过表头 cols row.xpath(.//td/text()) # 相对当前节点提取 table_data.append(dict(zip(headers, cols))) print(表格解析结果, table_data)4.2.3 运行结果plaintext表格解析结果 [{课程名称: XPath解析, 难度: 进阶, 价格: 99}, {课程名称: Session会话, 难度: 高阶, 价格: 129}]核心原理表格解析的核心是相对路径复用遍历行节点时使用.//td而非//td表示仅提取当前行下的单元格避免全文档提取导致数据错乱这是爬虫解析列表 / 表格数据的核心规范。五、真实网页 XPath 爬虫实战可直接运行本节以CSDN 博客列表页为真实目标实现完整的爬虫流程请求页面→解析 HTML→提取数据→数据清洗代码可直接运行贴合企业级爬虫开发场景。5.1 实战需求爬取 CSDN Python 爬虫分类下的博客列表提取字段博客标题博客链接作者名称发布时间阅读量5.2 完整爬虫代码python运行# 导入依赖库 import requests from lxml import etree def crawl_csdn_blog(): 爬取CSDN Python爬虫博客列表 核心XPath精准解析真实网页复杂结构 # 1. 请求头配置模拟浏览器避免被反爬 headers { User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36, Referer: https://www.csdn.net/ } # 2. 发送请求获取HTML源码 url https://blog.csdn.net/rank/list?typepythonsubtype1 response requests.get(url, headersheaders) response.encoding utf-8 html response.text # 3. lxml解析HTML执行XPath tree etree.HTML(html) # 4. XPath精准提取数据真实网页XPath表达式 # 提取所有博客项 blog_items tree.xpath(//div[contains(class,community-list-container)]//div[classcommunity-list-item]) # 存储结果 result [] # 5. 遍历每个博客项提取详情 for item in blog_items: # 相对路径提取核心进阶技巧 title item.xpath(.//h3[classtitle]/a/text()) link item.xpath(.//h3[classtitle]/a/href) author item.xpath(.//a[classuser-name]/text()) publish_time item.xpath(.//span[classtime]/text()) read_num item.xpath(.//span[classread-num]/text()) # 数据清洗处理空值列表转字符串 data { 标题: title[0].strip() if title else , 链接: link[0] if link else , 作者: author[0].strip() if author else , 发布时间: publish_time[0].strip() if publish_time else , 阅读量: read_num[0].strip() if read_num else } result.append(data) return result # 执行爬虫 if __name__ __main__: blog_data crawl_csdn_blog() # 打印结果 for index, data in enumerate(blog_data, 1): print(f第{index}条数据) print(f标题{data[标题]}) print(f链接{data[链接]}) print(f作者{data[作者]}) print(f发布时间{data[发布时间]}) print(f阅读量{data[阅读量]}) print(- * 50)5.3 实战核心原理与技巧请求头模拟原理真实网页会校验请求头User-Agent模拟浏览器访问避免服务器直接拒绝请求相对路径遍历原理先提取所有博客父节点再遍历父节点用.//提取子数据避免全文档 XPath 匹配导致的数据错位这是大规模爬虫的核心规范容错处理原理真实网页存在数据缺失场景使用if title else 处理空值避免爬虫因索引报错中断模糊匹配适配原理使用contains(class,值)适配动态生成的 class 属性解决网页前端框架动态渲染的问题。六、XPath 爬虫性能优化与高级技巧6.1 XPath 解析性能优化大规模采集必备在百万级页面爬虫中XPath 解析性能直接影响采集效率以下优化技巧可提升 50% 以上解析速度优先使用相对路径//会遍历全文档相对路径仅遍历局部节点解析速度提升 3-5 倍避免过度使用函数string()、normalize-space()会增加解析开销批量数据优先在 Python 中清洗复用 Element 对象不要重复解析同一个 HTML 文档单次解析后复用 Element 对象精准定位父节点先定位最小范围的父节点再提取子节点减少 DOM 遍历范围。6.2 XPath 高级技巧解决 99% 复杂页面问题逻辑运算筛选支持and/or/not多条件组合示例//div[ida and classb]正则匹配lxml 扩展支持正则适配无规律属性 / 文本示例//div[re:test(class,^item\d$)]空节点判断//div[not(text())]提取无文本的空节点批量提取XPath 支持多表达式同时提取示例//div/id | //div/class6.3 正则扩展 XPath 代码示例python运行from lxml import etree # 注册正则命名空间 ns {re: http://exslt.org/regular-expressions} html etree.HTML(div classitem1测试1/divdiv classitem2测试2/div) # 正则匹配class以item开头的节点 result html.xpath(//div[re:test(class,^item\d$)]/text(), namespacesns) print(正则匹配结果, result)七、XPath 爬虫常见问题与避坑指南7.1 常见问题汇总与解决方案表格问题现象原因解决方案XPath 返回空列表路径错误 / HTML 动态渲染 / 属性错误检查网页源码、使用相对路径、确认属性值提取文本包含大量空格换行网页原生格式问题使用normalize-space()函数清洗数据提取错位全文档提取未用相对路径先定位父节点再用.//提取子数据动态 class 无法匹配前端框架动态生成 class使用contains()模糊匹配解析报错lxml.etree.XPathEvalErrorXPath 语法错误检查语法、索引、函数使用7.2 核心避坑规范永远不要依赖绝对路径网页结构微调后绝对路径会直接失效爬虫必须使用相对路径必须做容错处理真实网页数据不规整无容错的爬虫会频繁中断不要用 XPath 解析动态页面JavaScript 渲染的页面XPath 无法提取数据需配合 Selenium/PlaywrightXPath 结果必为列表即使只有一个结果也需要通过索引[0]提取区分 HTML 源码与浏览器渲染结果浏览器 Elements 会修正 HTML 结构XPath 必须以查看网页源码为准。八、XPath 与 BeautifulSoup 对比分析爬虫选型参考爬虫开发中XPath 和 BeautifulSoup 是最常用的解析工具通过对比可快速选型表格对比维度XPath(lxml)BeautifulSoup解析速度极快C 语言底层较慢Python 纯实现语法复杂度简洁标准学习成本低灵活多样写法不统一复杂页面适配极强支持轴定位、逻辑运算较弱嵌套节点遍历繁琐内存占用低高企业级应用主流首选小型爬虫 / 简单页面表格 / 列表解析高效便捷代码冗余选型结论复杂页面、大规模爬虫、性能要求高的场景优先选择XPathlxml简单页面、快速开发场景可选择 BeautifulSoup。九、总结与进阶规划XPath 作为 Python 爬虫进阶的核心技能是解决复杂 HTML 页面数据提取的最优方案。本文从基础语法、环境配置、基础实战、高阶技巧、真实场景、性能优化、避坑指南全维度讲解覆盖了爬虫开发中 XPath 解析的所有核心知识点所有代码均可直接落地使用。掌握 XPath 后爬虫开发者可进一步学习动态页面渲染解析SeleniumXPath异步爬虫 XPath 高并发解析分布式爬虫中的 XPath 数据提取优化反爬机制下的 XPath 解析鲁棒性优化

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2594256.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…