Python爬虫爬取图片并存储到MongoDB(注意:仅尝试存储一条空的示例数据到MongoDB,验证MongoDB的联通性)
以下是一个使用Python爬取图片并存储到MongoDB的示例实现,包含详细步骤说明:
import requests
from bs4 import BeautifulSoup
from pymongo import MongoClient
from datetime import datetime
import os
import re# 配置信息
mongoIP = 'mongodb://root:123456@127.0.0.1:27017'
CONFIG = {"target_url": "https://example.com/images", # 替换为实际目标网站"headers": {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"},"mongodb": {"host": "127.0.0.1","port": 27017,"db_name": "image_database","username": "root","password": "123456","collection": "images"}
}def connect_mongodb():"""连接MongoDB数据库"""# client = MongoClient(# host=CONFIG["mongodb"]["host"],# port=CONFIG["mongodb"]["port"]# )client = MongoClient(mongoIP, connect=False)db = client[CONFIG["mongodb"]["db_name"]]return db[CONFIG["mongodb"]["collection"]]def sanitize_filename(filename):"""清理文件名中的非法字符"""return re.sub(r'[\\/*?:"<>|]', "", filename)def save_to_mongodb(image_data, filename, source_url):"""将图片保存到MongoDB"""collection = connect_mongodb()document = {"filename": filename,"image_data": image_data,"source_url": source_url,"created_at": datetime.now(),"metadata": {"file_size": len(image_data),"content_type": "image/jpeg" # 根据实际情况修改}}try:result = collection.insert_one(document)print(f"Saved {filename} to MongoDB, ID: {result.inserted_id}")return Trueexcept Exception as e:print(f"Error saving to MongoDB: {str(e)}")return Falsedef download_image(img_url):"""下载图片并返回二进制数据"""try:response = requests.get(img_url,headers=CONFIG["headers"],stream=True,timeout=10)if response.status_code == 200:return response.contentexcept Exception as e:print(f"Error downloading {img_url}: {str(e)}")return Nonedef extract_images(url):"""从网页中提取图片链接"""try:response = requests.get(url, headers=CONFIG["headers"], timeout=10)soup = BeautifulSoup(response.text, "html.parser")# 查找所有img标签img_tags = soup.find_all("img")# 提取图片URL(可能需要处理相对路径)image_urls = []for img in img_tags:src = img.get("src", "")if src.startswith("http"):image_urls.append(src)else:# 转换相对路径为绝对路径(根据网站结构可能需要调整)image_urls.append(f"{url}/{src}")return image_urlsexcept Exception as e:print(f"Error extracting images: {str(e)}")return []def main():# 获取目标网页中的图片链接image_urls = extract_images(CONFIG["target_url"])if not image_urls:print("No images found")returnprint(f"Found {len(image_urls)} images")for img_url in image_urls:# 下载图片image_data = download_image(img_url)if not image_data:continue# 生成文件名filename = sanitize_filename(os.path.basename(img_url))# 保存到MongoDBsave_to_mongodb(image_data, filename, img_url)if __name__ == "__main__":save_to_mongodb("", "1.png", "123") # 仅尝试存储数据到MongoDB# main() # 实际运行,需要网站可用
运行结果:
使用说明
-
准备工作:
- 安装依赖库:
pip install requests beautifulsoup4 pymongo
- 确保MongoDB服务正在运行(本地或远程)
- 安装依赖库:
-
配置修改:
- 修改
CONFIG
中的target_url
为目标网站地址 - 根据需要调整MongoDB连接参数
- 可能需要根据目标网站结构修改URL处理逻辑
- 修改
-
运行爬虫:
python image_crawler.py
-
验证结果:
- 使用MongoDB客户端工具查询数据:
use image_database db.images.find().limit(1)
- 使用MongoDB客户端工具查询数据:
重要注意事项
-
合法合规:
- 遵守目标网站的
robots.txt
规则 - 尊重版权和隐私政策
- 添加适当的请求延迟(示例中未包含)
- 遵守目标网站的
-
性能优化:
- 添加请求延迟(建议至少1-2秒/请求)
- 使用连接池
- 考虑异步处理(如
aiohttp
)
-
存储优化:
- 对于大文件建议使用GridFS
- 添加索引:
collection.create_index([("source_url", 1)], unique=True)
-
异常处理增强:
- 添加重试机制
- 记录错误日志
- 处理不同图片格式(PNG/WebP等)
-
扩展功能:
- 添加代理支持
- 实现分布式爬取
- 添加图片去重功能(如MD5校验)
可以根据具体需求调整代码结构和功能实现。建议在实际使用前进行小规模测试,确保符合目标网站的使用条款。