Python 爬虫实战:从入门到精通,爬取某站数据

news2026/4/9 2:50:56
前言在大数据时代数据采集是数据分析、人工智能、商业决策的基础环节。Python 凭借简洁的语法、丰富的第三方库成为爬虫开发的首选语言。但对于大多数初学者而言往往停留在静态网页爬取阶段面对当下网站普遍存在的异步加载、参数加密、IP 限制、签名校验等反爬机制时常常束手无策。本文将以真实网站数据爬取为实战目标遵循「零基础入门 → 环境搭建 → 静态爬取 → 动态接口分析 → JS 逆向加密 → 完整爬虫实现 → 反爬绕过 → 数据存储」的完整路径由浅入深、从理论到实战带你真正实现 Python 爬虫从入门到精通。全文包含详细原理、逐行注释代码、常见报错解决方案可直接复制运行兼顾新手入门与进阶提升。重要声明本文仅用于网络爬虫技术学习与交流严格遵守《网络安全法》《数据安全法》等法律法规遵守网站 robots 协议。严禁将本文技术用于非法爬取、商业牟利、侵犯他人数据权益、破坏网站正常运行等违法违规行为一切违规使用后果自负。一、爬虫前置基础认知1.1 什么是网络爬虫网络爬虫又称为网页蜘蛛、网络机器人是一种按照一定规则自动抓取互联网信息的程序或脚本。简单来说就是模拟浏览器发送请求获取网页数据并进行提取、清洗、存储的自动化工具。1.2 爬虫能做什么数据采集新闻资讯、商品价格、行业数据、论坛帖子等数据分析为机器学习、深度学习提供数据集自动化办公批量下载文件、自动填报、自动抓取报表行业监测竞品数据跟踪、舆情监控、价格监控搜索引擎百度、谷歌等均依靠大规模爬虫实现数据收录。1.3 爬虫分类静态爬虫爬取纯 HTML 页面数据直接写在网页源码中无加密、无异步加载动态爬虫针对 Ajax、Fetch 异步加载接口需要分析接口参数逆向爬虫破解前端 JS 加密、参数签名、数据加密等反爬逻辑模拟浏览器爬虫使用 Selenium、Playwright 完全模拟人操作浏览器。1.4 必须了解的 HTTP 基础请求方法GET获取数据、POST提交数据请求头User-Agent、Referer、Origin、Cookie 等校验信息响应状态码200 成功、403 禁止访问、404 页面不存在、500 服务器错误常见数据格式HTML、JSON、XML、密文数据。二、开发环境完整搭建2.1 Python 环境安装推荐使用 Python 3.83.11 版本兼容绝大多数爬虫库避免版本过高导致库不支持。安装时勾选 Add Python to PATH自动配置环境变量。验证安装bash运行python --version pip --version2.2 爬虫核心第三方库安装打开 CMD 执行以下命令使用清华镜像加速安装bash运行pip install requests -i https://pypi.tuna.tsinghua.edu.cn/simple pip install beautifulsoup4 lxml -i https://pypi.tuna.tsinghua.edu.cn/simple pip install pyexecjs -i https://pypi.tuna.tsinghua.edu.cn/simple pip install fake-useragent -i https://pypi.tuna.tsinghua.edu.cn/simple pip install pycryptodome -i https://pypi.tuna.tsinghua.edu.cn/simple pip install pandas openpyxl -i https://pypi.tuna.tsinghua.edu.cn/simple2.3 Node.js 环境安装JS 逆向需要执行前端加密代码依赖 Node.js 环境。下载地址https://nodejs.org/ 安装 LTS 版本。验证安装bash运行node -v npm -v安装 crypto-js 用于加密算法bash运行npm install crypto-js2.4 抓包工具准备使用 Chrome 浏览器自带开发者工具快捷键 F12 或 CtrlShiftI。核心面板Element查看网页结构Network抓包分析接口Source查看前端 JS 代码Console调试 JS 代码。三、入门阶段静态网页爬虫实战静态网页数据直接存在 HTML 中无需处理加密与异步适合新手入门。3.1 静态爬虫核心流程构造请求头模拟浏览器访问发送 GET 请求获取网页源码使用 BeautifulSoup 解析 HTML提取标题、链接、时间等目标数据数据清洗与简单存储。3.2 完整静态爬虫代码python运行# -*- coding: utf-8 -*- import requests from bs4 import BeautifulSoup from fake_useragent import UserAgent import time # 随机请求头 ua UserAgent() headers { User-Agent: ua.random, Accept: text/html,application/xhtmlxml,application/xml;q0.9,image/webp,*/*;q0.8, Accept-Language: zh-CN,zh;q0.9, Connection: keep-alive } def static_spider(url): try: # 发送请求 resp requests.get(url, headersheaders, timeout10) if resp.status_code ! 200: print(f请求失败状态码{resp.status_code}) return [] # 编码处理解决乱码 resp.encoding resp.apparent_encoding soup BeautifulSoup(resp.text, lxml) # 数据存储列表 data_list [] # 示例提取规则根据实际页面修改 items soup.find_all(div, class_list-item) for item in items: title item.find(a).get_text(stripTrue) link item.find(a)[href] publish_time item.find(span, class_time).get_text(stripTrue) data { 标题: title, 链接: link, 发布时间: publish_time } data_list.append(data) return data_list except Exception as e: print(f爬取异常{str(e)}) return [] if __name__ __main__: target_url https://xxx.xxx.com/news # 替换为目标静态地址 result static_spider(target_url) for i, item in enumerate(result, 1): print(i, item)3.3 静态爬虫局限性无法获取异步加载数据无法处理加密参数与加密数据容易被基础反爬识别无 IP 防护、无签名机制。想要爬取主流网站必须进入动态接口与逆向阶段。四、进阶阶段动态接口抓包分析现代网站 90% 数据通过接口异步加载数据不在 HTML 中而是通过 JSON 返回。4.1 抓包步骤打开目标网站 → F12 → Network勾选 Preserve log、筛选 XHR/Fetch刷新页面或翻页查看出现的接口查看接口 URL、请求方法、参数、响应。4.2 典型加密接口结构接口地址https://api.xxx.com/api/v1/data/list请求方式POST请求参数json{ page: 1, size: 20, timestamp: 1743000000, nonce: x927s1, sign: 7a2f9d4e8b1c3e5f0a6b7d8c9e0f1a2b }响应内容json{ code: 0, msg: success, data: 加密字符串一串 }4.3 反爬特征分析timestamp时间戳防止旧请求重复使用nonce随机字符串防止请求重复sign签名核心加密参数data返回密文需 AES 等方式解密。直接请求会返回签名错误、参数非法、请求过期、无权限。五、精通阶段JS 逆向破解加密JS 逆向是爬虫高薪核心技能本质是找到前端加密逻辑用 Python 还原。5.1 定位加密 JS 代码在 Network 面板 CtrlF 搜索sign、encrypt、md5、aes在 Source 面板查找混淆 / 压缩的 JS 文件使用断点调试查看参数生成过程。5.2 典型加密逻辑真实通用javascript运行// 生成签名 function makeSign(page, timestamp, nonce){ let key spider123456abcdef; let str page${page}t${timestamp}nonce${nonce}key${key}; return md5(str); } // 随机字符串 function nonceStr(){ let chars 0123456789abcdef; let res ; for(let i0;i6;i){ res chars[Math.floor(Math.random()*chars.length)] } return res; } // AES解密 function decrypt(data){ let key CryptoJS.enc.Utf8.parse(1234567890123456); let iv CryptoJS.enc.Utf8.parse(abcdef1234567890); let decrypted CryptoJS.AES.decrypt(data, key, { iv:iv, mode:CryptoJS.mode.CBC, padding:CryptoJS.pad.Pkcs7 }); return decrypted.toString(CryptoJS.enc.Utf8); }六、终极实战完整逆向爬虫可直接运行整合所有技术实现可落地的加密接口爬虫。6.1 完整源码python运行# -*- coding: utf-8 -*- import execjs import requests import time import json import pandas as pd from fake_useragent import UserAgent # JS 加密代码 js_code const CryptoJS require(crypto-js); function makeSign(page, timestamp, nonce){ let key spider123456abcdef; let str page${page}t${timestamp}nonce${nonce}key${key}; return CryptoJS.MD5(str).toString(); } function nonceStr(){ let chars 0123456789abcdef; let res ; for(let i0;i6;i){ res chars[Math.floor(Math.random()*chars.length)] } return res; } function decrypt(data){ let key CryptoJS.enc.Utf8.parse(1234567890123456); let iv CryptoJS.enc.Utf8.parse(abcdef1234567890); let decrypted CryptoJS.AES.decrypt(data, key, { iv:iv, mode:CryptoJS.mode.CBC, padding:CryptoJS.pad.Pkcs7 }); return decrypted.toString(CryptoJS.enc.Utf8); } # 初始化环境 ctx execjs.compile(js_code) ua UserAgent() headers { User-Agent: ua.random, Content-Type: application/json;charsetUTF-8, Origin: https://xxx.com, Referer: https://xxx.com/, Accept: application/json, text/plain, */* } # 目标接口 api https://api.xxx.com/api/v1/data/list # 核心爬虫函数 def crawl(page): try: # 构造加密参数 t int(time.time()) nonce ctx.call(nonceStr) sign ctx.call(makeSign, page, t, nonce) data { page: page, size: 20, timestamp: t, nonce: nonce, sign: sign } # 发送请求 resp requests.post(api, headersheaders, jsondata, timeout15) if resp.status_code ! 200: print(f第{page}页请求失败) return None res resp.json() if res.get(code) ! 0: print(f错误{res.get(msg)}) return None # 解密密文 cipher res.get(data) raw_data ctx.call(decrypt, cipher) return json.loads(raw_data) except Exception as e: print(f异常{str(e)}) return None # 批量爬取 保存 def run(): all_data [] # 爬取 5 页 for page in range(1, 6): print(f正在爬取第 {page} 页) page_data crawl(page) if page_data: all_data.extend(page_data) time.sleep(1) # 保存 Excel df pd.DataFrame(all_data) df.to_excel(爬虫结果.xlsx, indexFalse) print(爬取完成已保存为 爬虫结果.xlsx) if __name__ __main__: run()6.2 代码说明内置完整 JS 加密逻辑无需外部文件自动生成时间戳、随机串、签名自动解密接口返回密文批量爬取多页并保存为 Excel自带延时降低反爬风险。七、常见反爬绕过方案7.1 IP 被封增加延时time.sleep(1~3)使用代理 IPpython运行proxies { http: http://ip:port, https: https://ip:port } requests.post(..., proxiesproxies)7.2 Cookie 验证登录后复制 Cookie 加入 headers使用requests.Session()维持登录态7.3 签名频繁失效JS 代码可能更新重新抓包替换检查时间戳是否为秒级 / 毫秒级。7.4 请求频率限制单线程慢速爬取随机延时避免高并发八、爬虫规范与法律边界8.1 合法爬虫原则遵守 robots.txt 协议不爬取隐私数据、金融数据、未公开数据不用于商业用途、不恶意攻击服务器控制频率不造成服务器压力。8.2 禁止行为破解登录、入侵服务器大规模爬取导致网站瘫痪贩卖爬取数据、非法牟利绕开网站加密与防护措施用于非法目的。九、学习路线总结从入门到精通入门Python 基础 requests BeautifulSoup 静态爬取进阶XPath、JsonPath、接口分析、分页爬取精通JS 逆向、MD5/AES/RSA 加密、模拟浏览器高阶异步爬虫、分布式爬虫、APP 爬虫、验证码识别。爬虫的核心不是代码而是分析能力分析网页结构、分析接口参数、分析加密逻辑、分析反爬策略。只要掌握分析思路任何网站都能实现合规爬取。十、结语本文从最基础的静态爬虫到动态接口分析再到 JS 逆向加密破解完整覆盖 Python 爬虫核心技术体系。文中代码均为实战可用版本只需替换目标地址与解析规则即可快速适配绝大多数网站。技术本身无对错关键在于使用者。希望大家在合法合规的前提下学习爬虫技术用技术创造价值而不是带来风险。坚持练习、多做实战项目你也能从爬虫小白成长为逆向高手

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2498036.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…