python|尚硅谷python爬虫(二)-解析方法

一、xpath解析
所谓解析,是帮助我们获取网页源码中部分数据的一种方式。
1.xpath的使用

  • 安装xpath插件
    • (1)打开chrome浏览器
    • (2)点击右上角小圆点
    • (3)更多工具
    • (4)扩展程序
    • (5)拖拽xpath插件到扩展程序中
    • (6)如果crx文件失效,需要将后缀修改zip
    • (7)再次拖拽
    • (8)关闭浏览器重新打开
    • (9)ctrl + shift + x
    • (10)出现小黑框
  • 安装lxml库
    • pip install lxml ‐i https://pypi.douban.com/simple
  • 导入lxml.etree
    • from lxml import etree
  • etree.parse()解析本地文件
    • html_tree = etree.parse('XX.html')
  • etree.HTML() 解析服务器响应文件
    • html_tree = etree.HTML(response.read().decode('utf‐8')
  • html_tree.xpath(xpath路径)
2.xpath基本语法
  • 路径查询
    • //:查找所有子孙节点,不考虑层级关系
    • / :找直接子节点
  • 谓词查询
    • //div[@id]
    • //div[@id="maincontent"]
  • 属性查询
    • //@class
  • 模糊查询
    • //div[contains(@id, "he")]
    • //div[starts‐with(@id, "he")]
  • 内容查询
    • //div/h1/text()
  • 逻辑运算
    • //div[@id="head" and @class="s_down"]
    • //title | //pric
3.xpath的使用案例
  • 案例1:站长素材图片抓取并下载
# (1) 请求对象的定制 # (2)获取网页的源码 # (3)下载# 需求 下载的前十页的图片 # https://sc.chinaz.com/tupian/qinglvtupian.html1 # https://sc.chinaz.com/tupian/qinglvtupian_page.htmlimport urllib.request from lxml import etreedef create_request(page): if(page == 1): url = 'https://sc.chinaz.com/tupian/qinglvtupian.html' else: url = 'https://sc.chinaz.com/tupian/qinglvtupian_' + str(page) + '.html'headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36', }request = urllib.request.Request(url = url, headers = headers) return requestdef get_content(request): response = urllib.request.urlopen(request) content = response.read().decode('utf-8') return contentdef down_load(content): #下载图片 # urllib.request.urlretrieve('图片地址','文件的名字') tree = etree.HTML(content)name_list = tree.xpath('//div[@id="container"]//a/img/@alt')# 一般设计图片的网站都会进行懒加载 src_list = tree.xpath('//div[@id="container"]//a/img/@src2')for i in range(len(name_list)): name = name_list[i] src = https://www.it610.com/article/src_list[i]print(src)url ='https:' + src url=url.replace('_s', '')#print(url)urllib.request.urlretrieve(url=url,filename='./loveImg/' + name + '.jpg')if __name__ == '__main__': start_page = int(input('请输入起始页码')) end_page = int(input('请输入结束页码'))for page in range(start_page,end_page+1): # (1) 请求对象的定制 request = create_request(page) # (2)获取网页的源码 content = get_content(request) # (3)下载 down_load(content)

  • 案例2:大图网爬取结婚照片
# _*_ coding :utf-8 _*_ #@Time :2021/10/20 13:52 #@Author :段一盟 #@File :站长素材图片爬取 #@Project :#http://www.daimg.com/photo/wedding/list_161_1.html #http://www.daimg.com/photo/wedding/list_161_2.html #http://www.daimg.com/photo/wedding/list_161_3.html#请求对象的定制 #获取网页源码 #下载(得到源码后解析) import urllib.request from lxml import etreedef create_request(page):url = 'http://www.daimg.com/photo/wedding/list_161_' + str(page) + '.html' headers={ 'User-Agent':'Mozilla/5.0(Windows NT 10.0; Win64; x64)AppleWebKit/537.36(KHTML, like Gecko)Chrome/93.0.4577.82Safari/537.36'} request=urllib.request.Request(headers=headers,url=url) return request def get_content(request): response=urllib.request.urlopen(request,timeout=10) content=response.read().decode('gb2312') returncontent #urllib.request.urlretrieve(url,filename) def down_load(content): tree = etree.HTML(content) name_list=tree.xpath('//div[@class="ibox2 all"]//a/img/@alt') print(len(name_list)) src_list=tree.xpath('//div[@class="ibox2 all"]//a/img/@src') print(len(src_list)) #src2是因为懒加载 for i in range(len(name_list)): name=name_list[i] src=https://www.it610.com/article/src_list[i] url=src#url = url.replace('_s', '') print(url) urllib.request.urlretrieve(url=url,filename='./nmg/'+ name+str(i) + '.jpg')if __name__=='__main__': start_page=int(input('input start page:')) end_page=int(input('input end page:')) for page in range(start_page,end_page+1): # 请求对象的定制 request=create_request(page) #获取网页源码 content=get_content(request) #下载(得到源码后解析) down_load(content)

二、jsonpath解析
jsonpath适用于解析本地文件,不能用于解析服务器响应文件
1.jsonpath安装
pip安装: pip install jsonpath
2.jsonpath使用
  • obj=json.load(open('json文件', 'r', encoding='utf‐8'))
  • ret = jsonpath.jsonpath(obj, 'jsonpath语法')
三、BeautifulSoup解析
1.基本简介
  • BeautifulSoup简称:
    • bs4
  • 什么是BeatifulSoup?
    • BeautifulSoup,和lxml一样,是一个html的解析器,主要功能也是解析和提取数据
  • 优缺点?
    • 缺点:效率没有lxml的效率高
    • 优点:接口设计人性化,使用方便
2.安装及创建
  • 安装
    • pip install bs4
  • 导入
    • from bs4 import BeautifulSoup
  • 创建对象
    • 服务器响应的文件生成对象
      • soup = BeautifulSoup(response.read().decode(), 'lxml')
    • 本地文件生成对象
      • soup = BeautifulSoup(open('1.html'), 'lxml')
      • 注意:默认打开文件的编码格式gbk所以需要指定打开编码格式
3.bs4基本使用
from bs4 import BeautifulSoup# 通过解析本地文件 来将bs4的基础语法进行讲解 # 默认打开的文件的编码格式是gbk 所以在打开文件的时候需要指定编码 soup = BeautifulSoup(open('075_尚硅谷_爬虫_解析_bs4的基本使用.html',encoding='utf-8'),'lxml')# 根据标签名查找节点 # 找到的是第一个符合条件的数据 # print(soup.a) # 获取标签的属性和属性值 # print(soup.a.attrs)# bs4的一些函数 # (1)find # 返回的是第一个符合条件的数据 # print(soup.find('a'))# 根据title的值来找到对应的标签对象 # print(soup.find('a',title="a2"))# 根据class的值来找到对应的标签对象注意的是class需要添加下划线 # print(soup.find('a',class_="a1"))# (2)find_all返回的是一个列表 并且返回了所有的a标签 # print(soup.find_all('a'))# 如果想获取的是多个标签的数据 那么需要在find_all的参数中添加的是列表的数据 # print(soup.find_all(['a','span']))# limit的作用是查找前几个数据 # print(soup.find_all('li',limit=2))# (3)select(推荐) # select方法返回的是一个列表并且会返回多个数据 # print(soup.select('a'))# 可以通过.代表class我们把这种操作叫做类选择器 # print(soup.select('.a1'))# print(soup.select('#l1'))# 属性选择器---通过属性来寻找对应的标签 # 查找到li标签中有id的标签 # print(soup.select('li[id]'))# 查找到li标签中id为l2的标签 # print(soup.select('li[id="l2"]'))# 层级选择器 #后代选择器 # 找到的是div下面的li # print(soup.select('div li'))# 子代选择器 #某标签的第一级子标签 # 注意:很多的计算机编程语言中 如果不加空格不会输出内容但是在bs4中 不会报错 会显示内容 # print(soup.select('div > ul > li'))# 找到a标签和li标签的所有的对象 # print(soup.select('a,li'))# 节点信息 #获取节点内容 # obj = soup.select('#d1')[0] # 如果标签对象中 只有内容 那么string和get_text()都可以使用 # 如果标签对象中 除了内容还有标签 那么string就获取不到数据 而get_text()是可以获取数据 # 我们一般情况下推荐使用get_text() # print(obj.string) # print(obj.get_text())# 节点的属性 # obj = soup.select('#p1')[0] # name是标签的名字 # print(obj.name) # 将属性值左右一个字典返回 # print(obj.attrs)# 获取节点的属性 obj = soup.select('#p1')[0]print(obj.attrs.get('class')) print(obj.get('class')) print(obj['class'])

4.bs4爬取星巴克数据(待完善...)
import urllib.requesturl = 'https://www.starbucks.com.cn/menu/'response = urllib.request.urlopen(url)content = response.read().decode('utf-8')from bs4 import BeautifulSoupsoup = BeautifulSoup(content,'lxml')# //ul[@class="grid padded-3 product"]//strong/text() name_list = soup.select('ul[class="grid padded-3 product"] strong')for name in name_list: print(name.get_text())

四、css解析


【python|尚硅谷python爬虫(二)-解析方法】

    推荐阅读