当前位置: 首页 > news >正文

Python网络爬虫设计(三)

目录

一、需要登录的爬虫

二、pyppeteer与requests库结合

1、cookie和session

三、其他

1、绝对网址和相对网址

2、sleep函数


一、需要登录的爬虫

在众多种类的页面中,不同的页面有不同的功能,有的是进行展示的,而有的则是登录类的。在面对登录页面时,我们需要结合 Python 中的自动化工具(如 Pyppeteer)来进行输入、点击等操作

我们下面写一个代码,在里面使用一些模仿点击,输入等操作的函数:

import pyppeteer as pyp
import asyncioasync def WeiHTML(page) :await page.setUserAgent('Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.70 safari/537.36')await page.evaluateOnNewDocument(' () => Object. defineProperties (navigator, { webdriver: {get:()=> false} })}')
#以上是反反爬虫的async def DengLu(dengluURL) :width = 1400height = 800#定义了打开的浏览器的窗口的大小browser = await pyp.launch(headless = False , executablePath=r'C:\Users\23639\AppData\Local\Google\Chrome\Application\chrome.exe' , args = [f"--window-size={width} , {height}"])#启动page = await browser.newPage()#打开一个新的页面await WeiHTML(page)#打开页面后需要反反爬虫伪装一下await page.setViewport({"width" : width , "height" : height})#一切就绪后,设置一下一会想打开的窗口的大小await page.goto(dengluURL)#根据url打开页面element = await page.querySelector("#lUsername")await element.type("XXXXXXXXXXX")element = await page.querySelector("#lPassword")await element.type("PASSWORD")#以上四行是用来自动输入账号和密码的element = await page.querySelector(".wall-sub-btn")await element.click()#自动点击登录的await page.waitForSelector(".nav_1" , timeout = 30000)#登录后看看有没有标识性的tag的classawait browser.close()async def main():url = "A_URL"await DengLu(url)asyncio.run(main())

注:里面的#lUsername等类名和id名,都是需要在对应的界面上鼠标到达按钮,或者输入框上面,右键查看得到的

二、pyppeteer与requests库结合

在前面我们了解到,requests和pyppeteer各有利弊,requests的速度很快,但是如果面对登录等操作就比较麻烦(需要抓包),pyppeteer虽然可以比较简单的处理这种登录操作,但是他的速度很慢,所以我们就可以将二者结合,实现比较高效的代码

(注:这种方法只适合登录后的页面都不是JavaScript生成的动态网页)

下面我们用一个代码来实现:

import pyppeteer as pyp
import time     #添加延迟用的
import asyncio      #异步编程用的
import requests     #发送HTTP请求
from bs4 import BeautifulSoup   #解析HTML文档,以及进行查找async def WeiHTML(page) :await page.setUserAgent('Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.70 safari/537.36')await page.evaluateOnNewDocument('() => { Object.defineProperty(navigator, "webdriver", { get: () => false }); }')
#以上是模拟浏览器的请求头async def DengLu(url) :width = 1400height = 800#一会用于打开的浏览器的窗口的大小俩参数browser = await pyp.launch(headless = False , executablePath=r'C:\Users\23639\AppData\Local\Google\Chrome\Application\chrome.exe' , args = [f"--window-size={width} , {height}"])#启动浏览器page = await browser.newPage()#打开新页面await WeiHTML(page)#在新页面上用模拟请求头来访问await page.setViewport({"width" : width , "height" : height})#打开页面的窗口大小await page.goto(url)#去指定的网站time.sleep(2)element = await page.querySelector("#login-account-name")await element.type("1111111111@qq.com")time.sleep(1)element = await page.querySelector("#login-account-password")await element.type("XXXXXXXX")time.sleep(1)element = await page.querySelector("#login-button")await element.click()time.sleep(1)#输出邮箱+密码,点击登录按钮await page.waitForNavigation()#等待登录完成element = await page.waitForSelector(".select-kit-header-wrapper")if element :print("已成功登录!")else :print("登录失败")#通过等待特定的一个元素的class出现,来判断是否登录成功response = requests.get(url)    #发送HTTP请求获取对象html_content = response.text    #在对象中提取HTML文档soup = BeautifulSoup(html_content, 'html.parser')   #解析HTMLresult = soup.select("p.login-welcome__description")    #选择一个p标签,标签class是login-welcome__descriptionprint(result)time.sleep(3)await browser.close()async def Main() :url = "https://example.com"await DengLu(url)if __name__ == "__main__":asyncio.run(Main())

输出:

1、cookie和session

(1)cookie:我们每次在访问一个网页时,浏览器就会发送一个请求,服务器就会根据这个请求返回对应的页面文件,这样使得我们可以进行访问一个网站,而在我们登陆成功之后,服务器会向浏览器发送一些身份标识数据,称为cookie,这样浏览器每次发送请求的时候,就会带上cookie,服务器就知道是之前那个登录过的用户的请求了

(2)session:每一个服务器里面都存储了大量的数据,不仅有各个网站的相关文件,服务器还在内存给浏览器存储了一个session,每个浏览器对应不同的session,里面存放着浏览器的状态,比如你在浏览器内访问到哪一个页面,登录的信息填了多少,而不同的session都有一个自己的session id ,浏览器在发送请求的时候,如果带上session id,服务器也可以知道是哪一个浏览器发送的请求

(3)我们可以在Python中,通过指定的函数,再结合cookie,可以生成标识同一个浏览器的session

下面有相关函数:

①在pyppeteer库中有一个cookie()函数,可以获取cookie

②在requests库中requestsSession()可以生成一个空session

③cookie.update(cookie)函数可以根据cookie生成对应的session

④Session.get(url)函数可以向服务器发送一个带session的请求

三、其他

1、绝对网址和相对网址

绝对网址一般是以http://和https://开头的,而相对网址没有这两种开头

假如我们有现在在一个网址:

https://www.example.com/one/hello.htm

如果这个网页有一个链接,是相对的:

<a href = "Wow.htm">点击我!</a>

那么这个链接的绝对网址就是:

https://www.example.com/one/Wow.htm

2、sleep函数

我们可以用time.sleep()函数来让代码等待一定的时间载接着运行,这个函数需要先调用time库

它不仅可以延迟代码的执行时间,来达到模仿人的动作(防止识破),还可以来等待页面加载完成

以上就是Python网络爬虫设计(三)的全部内容:)

相关文章:

  • 【QT】 QT中的列表框-横向列表框-树状列表框-表格列表框
  • 【JavaWeb后端开发02】SpringBootWeb + Https协议
  • vuex实现同一页面radio-group点击不同按钮显示不同表单
  • Redis——内存策略
  • 数据通信学习笔记之OSPF的邻居角色
  • 【漫话机器学习系列】213.随机梯度下降(SGD)
  • 大学之大:布里斯托大学2025.4.20
  • From RAG to Memory: Non-Parametric Continual Learning for Large Language Models
  • SpringCloud实战
  • 征程 6 VIO 通路断流分析
  • 内容合作方资源哪里找?如何管理?
  • 每日面试实录·携程·社招·JAVA
  • 牛客 | OJ在线编程常见输入输出练习
  • Java中订阅消费模式(发布-订阅模式)和观察者模式的区别
  • 2025年渗透测试面试题总结-拷打题库08(题目+回答)
  • Java8-遍历list取出两个字段重新组成list集合
  • FreeSWITCH 简单图形化界面41 - 批量SIP视频呼叫测试
  • SQL注入之information_schema表
  • 浅聊docker的联合文件系统
  • 【AI 加持下的 Python 编程实战 2_07】第七章:基于 Copilot 完整演示问题分解能力在实际问题中的落地应用
  • 美国多地举行抗议活动,特朗普经济政策支持率创新低
  • “科技+萌点”机器人马拉松刷屏!宇树回应“半马摔倒”
  • 观察|智驾监管升级挤掉宣传水分,行业或加速驶入安全快车道
  • 澳门世界杯“中日对决”,蒯曼击败伊藤美诚晋级女单决赛
  • 新城市志|全球供应链动荡加剧,中国稳外贸有信心有底气
  • 东航推出“上博号”班机,上博设立“东航特展厅”