爬虫入门到进阶(四)

导读:本篇文章讲解 爬虫入门到进阶(四),希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com

xpath解析库

1.xpath解析库

Xpath解析库介绍: 数据解析的过程中使用过正则表达式, 但正则表达式想要进准匹配难度较高, 一旦正则表达式书写错误, 匹配的数据也会出错. 网页由三部分组成: HTML, Css, JavaScript, HTML页面标签存在层级关系, 即DOM树, 在获取目 标数据时可以根据网页层次关系定位标签, 再获取标签的文本或属性.

xpath解析库解析数据原理:

  1. 根据网页DOM树定位节点标签
  2. 获取节点标签的正文文本或属性值
# xpath安装, 初体验 --> 使用步骤: 
1.xpath安装: pip install lxml 
2.requests模块爬取糗事百科热门的标题: 
import requests 
from lxml import etree 
url = 'https://www.qiushibaike.com/' 
headers = { "User-Agent":'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36' }
res = requests.get(url=url, headers=headers) tree = etree.HTML(res.text) 
title_lst = tree.xpath('//ul/li/div/a/text()') for item in title_lst: 
	print(item) 3.xpath使用步骤: 
from lxml import etree 

tree = etree.HTML(res.text) 
tree = etree.parse(res.html,etree.HTMLParse()) 

# 示例如下, 了解内容 
tag_or_attr = tree.xpath('xpath表达式')
# xpath解析本地文件 
import requests 
from lxml import etree
url = 'https://www.qiushibaike.com/' 
headers = { "User-Agent":'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36' }

res = requests.get(url=url, headers=headers) with open('qb.html', 'w', encoding='utf-8') as f: 
	f.write(res.text) 
tree = etree.parse('./qb.html', etree.HTMLParser()) 
title_lst = tree.xpath('//ul/li/div/a/text()') for item in title_lst: 
	print(item)
# xpath语法: 
1.常用规则: 
	1.1 nodename: 节点名定位 
	1.2 //: 从当前节点选取子孙节点 
	1.3 /: 从当前节点选取直接子节点 
	4. nodename[@attribute="..."] 根据属性定位标签 '//div[@class="ui-main"]' 
	5. @attributename: 获取属性 
	6. text(): 获取文本 
2.属性匹配两种情况: 多属性匹配 & 单属性多值匹配 
	2.2 多属性匹配 
	示例: tree.xpath('//div[@class="item" and @name="test"]/text()') 
	2.1 单属性多值匹配 示例:
	tree.xpath('//div[contains(@class, "dc")]/text()') 
3.按序选择: 
	3.1 索引定位:1开始(牢记, 牢记, 牢记) 
	3.2 last()函数 
	3.3 position()函数
解析示例: 示例解析的是本地文件 
<!DOCTYPE html> 
	<html lang="en"> 
		<head><meta charset="UTF-8"> 
		<title>Xpath练习文件</title> 
		</head> 
	<body> 
		<div id="007"> "我是div标签的文字内容, 和下面的p标签还有div标签是同级的哦" 
		<p>这是p标签内的文字内容</p> 
		<div>这是p标签同级的div标签</div> 
		</div> <div class="divtag"> 
		<ul>
		<li>1个li标签</li>
		<li>2个li标签</li> 
		<li>3个li标签</li> 
		<li>4个li标签</li> 
		<li>5个li标签</li> </ul> 
		<a href="https://www.baidu.com">这是百度的跳转连接</a> 
		</div> 
		<div class="c1" name="laoda">老大在此</div> 
		<div class="c1 c3" name="laoer">老二任性, class有两个值</div> 
		<div class="c1" name="laosan">我是老三</div> 
		</body> 
		</html>
from lxml import etree 
	tree = etree.parse('./x.html', etree.HTMLParser()) 
# 1.根据节点名, 即nodename定位title标签, 获取标签内文字 
title_text = tree.xpath('//title/text()') print(title_text) 
# 2.根据节点属性定位: 定位id为007的div标签 
div_007 = tree.xpath('//div[@id="007"]') print(div_007) 
# 3.示例直接子节点与子孙节点:/, // 
div_007_one = tree.xpath('//div[@id="007"]/text()') print(div_007_one) div_007_two = tree.xpath('//div[@id="007"]//text()') print(div_007_two) 
# 4.获取a标签的href属性 
a_href =tree.xpath('//div[@class="divtag"]/a/@href') print(a_href) 
# 4.多属性定位: 根据class属性和name属性定位div标签
 div_two_attr = tree.xpath('//div[@class="c1" and @name="laoda"]/text()') print(div_two_attr) 
 # 5.属性多值定位: 定位所有class中有c1的div标签
  div_c1 = tree.xpath('//div[contains(@class, "c1")]') 
  # 6.按序定位 
  li_first = tree.xpath('//div[@class="divtag"]/ul/li[1]/text()') 
  # 定位第一个li标 签, 获取其文本 
  print(li_first) 
  li_last = tree.xpath('//div[@class="divtag"]/ul/li[last()]/text()') 
  # 定位最后一 个li标签 
  print(li_last) li_daotwo = tree.xpath('//div[@class="divtag"]/ul/li[last()-1]/text()') 
  # 定位倒 数第二个li标签 
  print(li_daotwo)

li_qianthree = tree.xpath('//div[@class="divtag"]/ul/li[position()<4]/text()') 
# 定位前三个li标签 
print(li_qianthree)

2.案例: 豆瓣电影的相关信息

import requests 
from lxml import etree 
url = 'https://movie.douban.com/chart' headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36' }
res = requests.get(url=url, headers=headers) tree = etree.HTML(res.text) 
td_list = tree.xpath('//tr[@class="item"]/td[2]') 
# print(td_list) 
for td in td_list: 
	title = td.xpath('./div/a//text()') 	   produce = td.xpath('./div/p/text()') 
	score =td.xpath('./div/div/span[2]/text()') 	comment_num = td.xpath('./div/div/span[3]/text()') 	print(1111111111111111111111111111111111111111111) 
	print(title) 
	print(produce) 
	print(score) 
	print(comment_num) 
print(2222222222222222222222222222222222222222222)

3.案例: 糗事百科实现多页爬取

爬取糗事百科, 热门前两页的每一项标题, 详情页链接, 好笑
指数及评论数, 多页爬取
1.xpath常用规则: 
	1. nodename: 节点名定位 
	2. //: 从当前节点选取子孙节点 
	3. /: 从当前节点选取直接子节点 
	4. nodename[@attribute="..."] 根据属性定位标签 
	5. @attributename: 获取属性 
	6. text(): 获取文本 
2.属性匹配两种情况: 
多属性匹配 & 单属性多值匹配 
2.2 多属性匹配 示例: tree.xpath('//div[@class="item" and @name="test"]/text()') 
2.1 单属性多值匹配 示例: tree.xpath('//div[contains(@class, "dc")]/text()') 
3.按序选择:
3.1 索引定位:1开始(牢记, 牢记, 牢记) 
3.2 last()函数 
3.3 position()函数

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/76969.html

(0)
小半的头像小半

相关推荐

极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!