文章缩略图

Python批量采集WordPress网站数据爬虫脚本

2023-02-15 00:00:00 技术教程 6870 阅读需35分钟
图标

本文最后更新于2023-02-15 00:00:00已经过去了852天 请注意内容时效性

热度 128 评论 2 点赞69
钞能力。你在哪?此处内容已经被作者隐藏,请输入验证码查看内容
验证码:
请关注本站微信公众号,回复“验证码”,获取验证码。在微信里搜索“钞能力。你在哪?”或者“mdyc919293”或者微信扫描右侧二维码关注公众号。

Python批量采集WordPress网站数据爬虫脚本 技术教程

分享一段非常简单的Python批量采集wordpress网站数据的爬虫脚本,实现采集wordpress程序的网站的整站数据的爬虫程序。从首页开始,抓取href标签,到子页面后还是要继续找href标签,采用Python递归方法,直接贴代码吧!

import reimport bs4import urllib.request  url_home = 'https://www.56admin.com/'  #要采集的网站url_pattern = url_home + '([\s\S]*)\.html' #正则表达式匹配文章页面,此处需完善为更好的写法url_set = set()url_cache = set()url_count = 0url_maxCount = 1000  #最大采集数量  #采集匹配文章内容的href标签def spiderURL(url, pattern):   html = urllib.request.urlopen(url).read().decode('utf8')   soup = bs4.BeautifulSoup(html, 'html.parser')   links = soup.find_all('a', href = re.compile(pattern))   for link in links:       if link['href'] not in url_cache:           url_set.add(link['href'])   return soup  #采集的过程  异常处理还需要完善,对于一些加了防采集的站,还需要处理header的,下次我们再学习spiderURL(url_home, url_pattern)  while len(url_set) != 0:   try:       url = url_set.pop()       url_cache.add(url)       soup = spiderURL(url, url_pattern)       page = soup.find('div', {'class':'content'})         title = page.find('h1').get_text()       autor = page.find('h4').get_text()       content = page.find('article').get_text()         print(title, autor, url)   except Exception as e:       print(url, e)       continue   else:       url_count += 1   finally:       if url_count == url_maxCount:           break  print('一共采集了: ' + str(url_count) + ' 条数据')

 

你可能想看:
继续阅读本文相关话题
更多推荐
发表评论

共有[ 0 ]人发表了评论

🥰 😎 😀 😘 😱 🤨 🥵 😔 😤 😡 😭 🥱 🤡 ☠️ 💖 🤖 💢 💥

评论列表
用户头像
匿名 注册用户
2025-06-07 22:24:49

该Python脚本批量采集WordPress网站数据爬虫令人印象深刻,具有高效率和便利性,利用它轻松进行数据的批量化收集与分析非常便捷且有效!

山东省青岛市 联通 Goolge Chrome 回复TA
用户头像
匿名 注册用户
2025-06-12 21:06:18

技术之下的信息探索,深度与广度的完美结合。

江苏省镇江市 铁通 Goolge Chrome 回复TA
品牌认证 W3C认证 MYSSL认证 TrustAsia 安全签章
扫码访问手机版
二维码图片