当前位置: 首页 > news >正文

BeautifulSoup 库的使用——python爬虫

文章目录

  • 写在前面
  • python 爬虫
    • BeautifulSoup库是什么
    • BeautifulSoup的安装
    • 解析器对比
    • BeautifulSoup的使用
      • BeautifulSoup 库中的4种类
      • 获取标签
        • 获取指定标签
        • 获取标签的的子标签
        • 获取标签的的父标签(上行遍历)
        • 获取标签的兄弟标签(平行遍历)
        • 获取注释
        • 根据条件查找标签
        • 根据CSS选择器查找标签

写在前面

本文主要介绍了python爬虫中的BeautifulSoup库的安装和使用,如果是爬虫小白,请先看文章爬虫入门与requests库的使用,再来看本文章,这样你会有更深刻地理解,当然,大佬随意。

python 爬虫

BeautifulSoup库是什么

BeautifulSoup是一个用于解析 HTMLXML 文档的 Python 库,它帮助你从网页中提取数据。这个库非常灵活,并且可以与多种不同的解析器一起工作,比如 Python 内置的 html.parserlxml 或者 html5lib

BeautifulSoup的安装

想要安装BeautifulSoup库,则需要执行以下安装命令:

  • pip install bs4
  • pip install beautifulsoup4
  • pip install soupsieve
  • pip install lxml

解析器对比

在这里插入图片描述

如上图,其中markup为一个html文件或者html代码(字符串形式)。

BeautifulSoup的使用

BeautifulSoup 库中的4种类

BeautifulSoup 将复杂的 HTML 文档转换成由 Python 对象构成的树形结构,主要包括以下四种类型的对象:Tag, NavigableString, BeautifulSoup, 和 Comment

  • Tag:表示标签。
  • NavigableString:表示标签之间的文本内容。
  • BeautifulSoup:表示整个解析后的文档。
  • Comment:一种特殊的 NavigableString,表示 HTML 中标签之间的注释。

获取标签

获取指定标签

Tag(获取标签):

from bs4 import BeautifulSoupwith open(file="test.html", mode='r', encoding='utf-8') as fp:soup = BeautifulSoup(markup=fp, features='html.parser')# 解析html文件并将解析结果返回# 查找并获取HTML文档中的第一个 <h2> 标签。h2_tag = soup.h2# 打印找到的 <h2> 标签(如果有的话)。如果没有找到 <h2> 标签,则打印None。print(h2_tag)# 打印 <h2> 标签的数据类型。如果是有效的标签,它将是bs4.element.Tag 类型;#如果没有找到标签,则是NoneType。print(type(h2_tag))# 打印标签名 print(h2_tag.name) # 修改标签名后打印,并不会修改原HTML文档中的标签名 h2_tag.name = 'h3' print(h2_tag.name)# 获取标签之间的文本内容(纯文本内容),如果标签中还有标签,则返回None print(h1_tag.string) # 获取标签之间的文本内容,如果标签中还有标签,#则获取所有二级标签的内容(以换行分隔)# 最终将所有的文本内容拼接成一个字符串返回print(h1_tag.get_text())img_tag = soup.img    #获取到第一个<img>标签# 以字典方式获取标签的所有属性的键和值print(img_tag.attrs)# 获取img标签中属性alt的值,如果属性不存在报KeyError错误print(img_tag['alt'])# 获取img标签中属性alt的值,如果属性不存在返回Noneprint(img_tag.get('alt'))print(img_tag.attrs.get('alt'))# 以上两种方式是同样的效果img_tag['alt'] = '修改后的alt'# 打印修改后的alt的值print(img_tag['alt'])# 删除属性del img_tag['alt']# 打印标签内容print(img_tag)

下面详细地讲解一下需要注意的方法:

标签名.get_text():

# 获取标签之间的文本内容,如果标签中还有标签,
# 则获取所有二级标签的文本内容(以换行分隔)
# 最终将所有的文本内容拼接成一个字符串返回print(h1_tag.get_text())
<div><p>Hello</p><span>World</span>
</div>
div_tag.get_text()          # 输出: '\nHello\nWorld\n'
div_tag.get_text(strip=True) # 输出: 'HelloWorld'
div_tag.get_text(separator=" | ") # 输出: '\n | Hello | \n | World | \n'
获取标签的的子标签
  1. 获取指定标签的所有子节点标签及文本内容(列表形式返回)

标签名.contents:

标签名.contents#获取当前标签的直接子节点列表(不含子孙)
<div><p>Hello</p><span>World</span>
</div>
div_tag.contents 
# 输出: ['\n', <p>Hello</p>, '\n', <span>World</span>, '\n']

在这里插入图片描述

注意:与上面的标签名.get_text()作区别

  1. 获取指定标签的所有子节点标签及文本内容(迭代器形式返回)
soup.标签名.children
#获得标签对应的子标签和子字符串(回车)的迭代类型,可以直接用于迭代
  1. 获取指定标签的所有子孙后代节点标签及文本内容(迭代器形式返回)
soup.标签名.descendants
# 获得标签对应的所有的子孙标签和子孙字符串的迭代类型,可以直接用于迭代
获取标签的的父标签(上行遍历)
  1. 获取指定标签的父标签(迭代器形式返回)
soup.标签名.parent
#获得标签对应的父标签
  1. 获取指定标签的所有先辈标签(迭代器形式返回),从直接父级开始,逐级向上到文档根节点
soup.标签名.parents#获得标签对应的先辈标签的迭代类型,可以直接用于迭代
获取标签的兄弟标签(平行遍历)
  1. 获取指定标签相邻的下一个平行标签(按html代码顺序)
soup.标签名.next_sibling  
#返回按html代码顺序的下一个平行节点标签
  1. 获取指定标签相邻的上一个平行标签(按html代码顺序)
soup.标签名.previous_sibling
# 返回html代码顺序的上一个平行节点标签
  1. 获取指定标签后续的所有平行标签(即按html代码顺序排在指定标签后的所有兄弟标签)
soup.标签名.previous_siblings
# 返回html代码顺序的后续所有平行节点标签
  1. 获取指定标签前序的所有平行标签(即按html代码顺序排在指定标签前的所有兄弟标签)
soup.标签名.previous_siblings 
#返回html代码顺序的前序所有平行节点标签
获取注释

想要获取和操作html文件或代码中的注释,需要通过 BeautifulSoupComment 类。

Comment类的作用;

  • 提取注释内容:从 HTML/XML 中提取被 <!-- ... --> 包裹的注释文本。
  • 判断节点类型:识别某个字符串节点是否为注释。

定位注释:

注释在 BeautifulSoup 中被解析为 Comment 类型的特殊字符串对象,可通过以下方式获取:

from bs4 import BeautifulSoup, Commenthtml = '''
<div><p>正文内容</p><!-- 这是一个隐藏的注释 -->
</div>
'''soup = BeautifulSoup(html, 'html.parser')# 方法1:遍历所有字符串节点,筛选出注释
comments = soup.find_all(string=lambda text: isinstance(text, Comment))
for comment in comments:print("注释内容:", comment)  # 输出: 这是一个隐藏的注释# 方法2:直接通过标签访问(若注释在标签内)
div_tag = soup.div
comment_in_div = div_tag.find(string=lambda text: isinstance(text, Comment))
print(comment_in_div)  # 输出: 这是一个隐藏的注释

操作注释:

  • 提取注释文本:直接获取 Comment 对象的字符串。
  • 替换或删除注释

# 找到对应的注释
# 替换注释为普通文本
comment = div_tag.find(string=lambda text: isinstance(text, Comment))
comment.replace_with("替换后的文本")# 删除注释
comment.extract()

例子( 提取注释中的日期):

from bs4 import BeautifulSoup, Commenthtml = '''
<div class="article"><!-- 文章发布时间:2023-10-01 --><h1>标题</h1><p>正文内容...</p>
</div>
'''soup = BeautifulSoup(html, 'html.parser')
div_tag = soup.find('div', class_='article')
#定位到了指定的标签# 查找注释并提取日期
comment = div_tag.find(string=lambda text: isinstance(text, Comment))
if comment:date = comment.strip().split(":")[-1]print("发布日期:", date)  # 输出: 2023-10-01
根据条件查找标签
soup.find_all(name,attrs,string)#name 目的标签名,同时查找多个标签时格式为
#name=['标签名1','标签名2'],name=True时,查找出所有标签#attrs 目的标签中的属性值,查找标签名与name相同,同时标签属性的所有值中有attrs的标签
#也可以直接对属性进行查找 soup.find_all(class="title")
# 查找class属性的值为"title"的标签link = soup.find_all('a', {'class': 'sister', 'id': 'link2'})
#同时对多个属性查找#string 对标签文本内容的查找(支持使用正则表达)#limit 限制返回结果的数量,类似于 SQL 中的 `LIMIT` 关键字。
#当搜索到的结果数量达到限制时,停止搜索并返回结果#recursive 控制是否检索所有子孙节点。
#如果设置为 `False`,则只搜索直接子节点#函数作用:以列表的形式返回查找结果
#soup(……) ----------soup.find_all(……)

如上,为常用的查找方法,其中soup.find()的作用是查找第一个匹配的标签,找到后立马返回,不再继续查找,其参数与soup.find_all(……)相同。

根据CSS选择器查找标签

#可以直接使用标签名查找元素
title_tags = soup.select('title')
print(title_tags)#使用(.类名)选择类查找元素
sister_links = soup.select('.sister')
print(sister_links)#使用井号(`#id名`)选择ID查找元素
link1 = soup.select('#link1')
print(link1)#使用空格选择后代元素
bold_text = soup.select('p b')
print(bold_text)#使用大于号(`>子标签名`)选择直接子元素
direct_children = soup.select('body > p')
print(direct_children)  
# 输出: [<p class="title"><b>The Dormouse's story</b></p>,
#<p class="story">...</p>]# 输出body下所有子标签中的p标签#可以根据属性来选择元素
specific_link = soup.select('a[href="http://example.com/lacie"]') 
print(specific_link)#可以使用伪类选择器,例如选择第一个元素
first_sister = soup.select('.sister:first-child')
print(first_sister)
#选择class="sister"的标签下的第一个子标签

相关文章:

  • AWS EC2完全指南:如何快速搭建高性能云服务器?
  • maven的安装与配置、IDEA集成maven
  • BEVDet: High-Performance Multi-Camera 3D Object Detection in Bird-Eye-View
  • 实操基于MCP驱动的 Agentic RAG:智能调度向量召回或者网络检索
  • 23、.NET和C#有什么区别?
  • 鸿蒙ArkUI之布局实战,线性布局(Column,Row)、弹性布局(Flex)、层叠布局(Stack),详细用法
  • C语言 —— 铭纹织构未诞之镜 - 预处理详解
  • AIGC通信架构深度优化指南
  • 【Qt】QMainWindow类
  • leetcode 1035. Uncrossed Lines
  • css3新特性第三章(文本属性)
  • AI Agent破局:智能化与生态系统标准化的颠覆性融合!
  • 【技术派后端篇】Redis实现统计计数
  • JavaScript 性能优化
  • 【数据分析实战】使用 Matplotlib 绘制散点图
  • 第一讲 生成式ai是什么
  • 深度解析算法之前缀和
  • Linux命令-Shell编程
  • 深入剖析 Java Web 项目序列化:方案选型与最佳实践
  • k8s 基础入门篇之开启 firewalld
  • 著名政治学学者、中国人民大学教授仝志敏逝世
  • 京东:自21日起,所有超时20分钟以上的外卖订单全部免单
  • 大国重器飞天背后,有一位上海航天的“老法师”
  • 中办、国办印发《农村基层干部廉洁履行职责规定》
  • 占比超1/3,江苏何以连续多年霸榜“千亿县”?
  • 大悦城:去年净亏损29.77亿元,三年累计亏损超70亿元