Python自动化爬取企查查企业工商信息的实战技巧
1. Python爬取企查查数据的核心思路企查查作为国内权威的企业信息查询平台包含了大量有价值的工商注册信息。对于金融、证券行业的从业者来说经常需要批量获取这些数据进行分析。手动一个个查询不仅效率低下还容易出错。这时候Python自动化爬取就能大显身手了。我做过不少类似的项目发现最稳定的爬取方式是通过模拟浏览器操作。企查查的反爬机制比较严格直接发送HTTP请求很容易被封。用Selenium这类工具模拟真实用户浏览行为成功率会高很多。具体来说整个流程可以分为以下几个关键步骤登录企查查账号建议使用企业账号搜索目标企业进入企业详情页提取关键工商信息保存到本地文件或数据库这里有个小技巧企查查对未登录用户的查询次数限制很严格。我实测发现登录后每天能查询的数量会多很多。另外查询时最好控制频率每查询3-5家就随机暂停10-30秒这样能有效避免触发反爬。2. 环境准备与工具选择2.1 必备工具安装首先需要准备好Python环境我推荐使用Python 3.8版本。核心依赖库包括pip install selenium beautifulsoup4 pandas webdriver-managerSelenium用于模拟浏览器操作BeautifulSoup解析HTML页面Pandas数据处理和保存Webdriver-manager自动管理浏览器驱动浏览器驱动方面Chrome和Firefox都可以。我个人更习惯用Chrome因为它的开发者工具更强大调试起来更方便。安装完上述库后可以写个简单的测试脚本检查环境是否正常from selenium import webdriver from webdriver_manager.chrome import ChromeDriverManager driver webdriver.Chrome(ChromeDriverManager().install()) driver.get(https://www.qcc.com) print(driver.title) driver.quit()2.2 账号准备与登录企查查的账号分为个人版和企业版。如果只是偶尔查询个人账号就够用。但需要大量查询时建议购买企业账号主要有两个优势查询额度更高API调用权限更灵活登录环节要注意企查查现在普遍采用滑块验证码。手动登录一次后可以保存cookies下次直接加载cookies就能跳过登录步骤。这里分享一个保存和加载cookies的实用函数import pickle import time def save_cookies(driver, path): with open(path, wb) as filehandler: pickle.dump(driver.get_cookies(), filehandler) def load_cookies(driver, path): with open(path, rb) as cookiesfile: cookies pickle.load(cookiesfile) for cookie in cookies: driver.add_cookie(cookie)3. 数据爬取实战技巧3.1 企业列表获取当需要查询多个企业时可以先获取企业列表。企查查的搜索结果页通常采用分页显示每页20条左右。通过分析URL可以发现翻页参数是page页码。下面这个函数可以获取指定关键词下的所有企业名称和链接def get_company_list(driver, keyword, max_page5): base_url fhttps://www.qcc.com/web/search?key{keyword} companies [] for page in range(1, max_page1): driver.get(f{base_url}page{page}) time.sleep(random.uniform(2, 5)) # 随机等待 items driver.find_elements(By.CSS_SELECTOR, .maininfo a) for item in items: if item.get_attribute(href) and firm in item.get_attribute(href): companies.append({ name: item.text, url: item.get_attribute(href) }) return pd.DataFrame(companies)3.2 工商信息提取进入企业详情页后关键信息通常分布在几个区域基本信息栏公司名称、法人、注册资本等股东信息主要人员变更记录以基本信息为例可以使用CSS选择器精准定位def get_basic_info(driver): info {} # 公司名称 info[company_name] driver.find_element(By.CSS_SELECTOR, h1.company-name).text # 基本信息块 base_items driver.find_elements(By.CSS_SELECTOR, div.content-block-base dt) base_values driver.find_elements(By.CSS_SELECTOR, div.content-block-base dd) for item, value in zip(base_items, base_values): info[item.text.strip()] value.text return info4. 反爬策略与优化建议4.1 应对反爬机制企查查的反爬策略在不断升级根据我的经验主要有以下几种应对方法请求频率控制查询间隔随机化建议2-10秒不等IP代理池使用高质量代理IP最好是独享IP浏览器指纹模拟通过修改WebDriver参数模拟不同设备验证码识别遇到验证码时可以自动暂停等待人工处理这里分享一个设置随机等待时间的装饰器import random import time from functools import wraps def random_delay(min2, max10): def decorator(func): wraps(func) def wrapper(*args, **kwargs): time.sleep(random.uniform(min, max)) return func(*args, **kwargs) return wrapper return decorator # 使用示例 random_delay(3, 8) def search_company(driver, name): # 搜索操作代码4.2 数据存储优化爬取到的数据建议采用多种方式存储CSV文件适合小批量数据方便Excel直接打开数据库MySQL或MongoDB适合大量数据存储Excel文件便于非技术人员查看这里推荐使用Pandas的DataFrame作为中间数据结构可以方便地转换输出格式def save_data(data, formatcsv, filenameoutput): df pd.DataFrame(data) if format csv: df.to_csv(f{filename}.csv, indexFalse) elif format excel: df.to_excel(f{filename}.xlsx, indexFalse) elif format json: df.to_json(f{filename}.json, orientrecords)5. 完整案例与常见问题5.1 实战案例演示假设我们需要获取上海市所有注册资本超过1000万的科技公司信息。完整流程如下搜索条件设置科技 上海 注册资本1000万获取企业列表遍历列表进入每家企业的详情页提取关键工商信息保存到Excel文件核心代码如下random_delay(5, 15) def crawl_companies(keyword, pages5): driver init_driver() # 初始化浏览器 login(driver) # 登录 companies get_company_list(driver, keyword, pages) all_data [] for _, row in companies.iterrows(): driver.get(row[url]) info get_basic_info(driver) all_data.append(info) time.sleep(random.uniform(3, 8)) save_data(all_data, excel, shanghai_tech_companies) driver.quit()5.2 常见问题解决在实际项目中我遇到过几个典型问题元素定位失败企查查经常改版CSS选择器需要定期更新。建议把选择器集中管理方便统一修改。突然弹出验证码最好的处理方式是程序检测到验证码就暂停等人工处理后再继续。账号被封禁如果收到操作过于频繁的提示应该立即停止爬取换个账号或者等24小时再试。数据不完整有些信息是动态加载的需要滚动页面或者点击查看更多才能显示完整。可以添加自动滚动代码def scroll_page(driver, pixels500): driver.execute_script(fwindow.scrollBy(0, {pixels})) time.sleep(1)6. 法律合规与数据使用虽然技术上是可行的但在实际使用爬取的数据时一定要注意合规性问题。企查查的用户协议明确规定了数据使用限制建议仅将数据用于个人分析不要公开传播控制爬取频率避免对对方服务器造成压力商业用途建议购买官方API服务存储的数据要做好加密保护我曾经帮一家证券公司做类似项目时他们最终选择了购买企查查的企业API服务。虽然成本高一些但数据更稳定法律风险也更小。对于个人研究或者小规模使用自己爬取还是可行的但一定要注意分寸。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2464582.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!