当前位置: 首页 > news >正文

Selenium 在爬取过程中,网络响应被退出的解决方案

我在使用 Selenium 爬取网站的时候,直接get url ,却立马闪退,遇到了获取网络响应直接被退出的问题。

这通常是由于 反爬机制浏览器检测网络限制 导致的。

以下是 完整排查与解决方案


1. 检查常见原因

问题类型典型表现可能原因
浏览器检测页面加载后立即关闭被检测到自动化工具(如 webdriver 属性)
反爬机制返回 403/404 或跳转验证码请求头、IP 或行为异常
网络限制TimeoutException 或无响应代理问题、DNS 污染、Cloudflare 拦截
页面重定向获取不到目标数据网站强制跳转(如登录页)

2. 解决方案

✅ 方案 1:绕过浏览器检测
from selenium import webdriver
from selenium.webdriver.chrome.options import Optionsoptions = Options()
options.add_argument("--disable-blink-features=AutomationControlled")
options.add_experimental_option("excludeSwitches", ["enable-automation"])
options.add_experimental_option("useAutomationExtension", False)driver = webdriver.Chrome(options=options)# 修改 navigator.webdriver 属性
driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {"source": """Object.defineProperty(navigator, 'webdriver', {get: () => undefined})"""
})
✅ 方案 2:使用 undetected-chromedriver(推荐)
import undetected_chromedriver as ucdriver = uc.Chrome(version_main=114,  # 匹配你的 Chrome 版本headless=False,    # 无头模式容易被检测use_subprocess=True
)
driver.get("https://目标网站.com")
✅ 方案 3:模拟人类行为(降低检测概率)
import time
import random
from selenium.webdriver.common.action_chains import ActionChains# 随机延迟(避免固定时间间隔)
time.sleep(random.uniform(1, 3))# 模拟鼠标移动
actions = ActionChains(driver)
actions.move_by_offset(random.randint(10, 50), random.randint(10, 50))
actions.perform()
✅ 方案 4:处理 Cloudflare / 反爬验证
# 方法 1:更换 User-Agent
options.add_argument("user-agent=Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36")# 方法 2:使用代理 IP
options.add_argument("--proxy-server=http://代理IP:端口")# 方法 3:手动处理验证码(如 2Captcha 服务)
✅ 方案 5:检查网络问题
from selenium.common.exceptions import TimeoutExceptiontry:driver.set_page_load_timeout(30)  # 设置超时时间driver.get("https://目标网站.com")
except TimeoutException:print("页面加载超时,可能是网络问题或网站拦截")driver.quit()

3. 高级调试技巧

📌 检查网络请求(Chrome DevTools)
from selenium.webdriver.common.desired_capabilities import DesiredCapabilitiescaps = DesiredCapabilities.CHROME
caps['goog:loggingPrefs'] = {'performance': 'ALL'}  # 启用网络日志
driver = webdriver.Chrome(desired_capabilities=caps)# 获取网络日志
logs = driver.get_log('performance')
for log in logs:print(log)
📌 使用 selenium-wire 捕获 HTTP 请求
from seleniumwire import webdriverdriver = webdriver.Chrome()
driver.get("https://目标网站.com")# 查看所有请求
for request in driver.requests:if request.response:print(request.url, request.response.status_code)

4. 终极解决方案

如果仍然被拦截,可以:

  1. 更换 IP(使用住宅代理,如 Luminati)
  2. 降低爬取频率(增加随机延迟)
  3. 改用 Puppeteer/Playwright(更接近真实浏览器)
  4. 模拟登录 Cookie(避免被识别为新会话)

总结

问题解决方案
浏览器检测undetected-chromedriver + 修改 webdriver 属性
反爬拦截更换 User-Agent + 代理 IP
网络超时增加 set_page_load_timeout
验证码使用 2Captcha 或手动处理

以上是一些解决方法,我在爬取网站的时候,遇到网站闪退,很有可能是被该网址“封号”了,这个是跟登录账号相关的,或者跟响应方式有关。

如果是账号问题,可能是这个账号登录太多次,导致被拉黑

如果是响应方式的问题,可能一些网址要通过其他方式打开,而不能直接连接这个网址,例如:

html 有这样的元素

onclick="searchlog

说明后面接着的网址是不能直接去get url的,要点击才可以,那么这种就只能模拟点击的方法才能获取url的响应了。
具体的做法可以参考:
【Python】Selenium切换网页的标签页的写法(全!!!)

相关文章:

  • C++算法(13):如何高效读取并存储未知数量的空格分隔数字
  • C语言高频面试题——sizeof和strlen的区别
  • 进程的同步和互斥
  • Seata 分布式事务 快速开始
  • Crawl4AI:打破数据孤岛,开启大语言模型的实时智能新时代
  • 597页PPT丨流程合集:流程梳理方法、流程现状分析,流程管理规范及应用,流程绩效的管理,流程实施与优化,流程责任人的角色认知等
  • Docker Compose常用命令
  • 公路路面病害检测
  • 数据结构:顺序表的实现
  • 使用 Spring Boot Admin 通过图形界面查看应用配置信息的完整配置详解,包含代码示例和注释,最后以表格总结关键配置
  • 使用 rebase 轻松管理主干分支
  • 描述城市出行需求模式的复杂网络视角:大规模起点-目的地需求网络的图论分析
  • 数据仓库ODS、DWD、DWS、ADS各层介绍
  • 关于创建UNIX/Linux daemon进程的笔记
  • 【漫话机器学习系列】217.监督式深度学习的核心法则(Supervised Deep Learning Rule Of Thumb)
  • Spark-Streaming简介和核心编程
  • 【盈达科技GEO优化】向量数据库:人工智能营销时代的核心引擎
  • 【信息安全工程师备考笔记】第二章 网络信息安全概述
  • 门控循环单元(GRU)
  • 基于机器学习的房租影响因素分析系统
  • 全球首台环形CT直线加速器在沪正式开机,系我国自主研发
  • “90后”高层建筑返青春:功能调整的技术路径和运营考验
  • 云南鲁甸县一河滩突然涨水致4死,有人在救人过程中遇难
  • 因商标近似李小龙形象被裁定无效,真功夫起诉国家知产局,法院判了
  • “今日海上”对话“今日维也纳”,东西方艺术在上海碰撞
  • 青海西宁市公安局原党委委员、副局长王小华被“双开”