Scrapy爬虫

文章介绍了如何使用Scrapy框架创建和管理爬虫项目。首先,通过anaconda环境建立项目结构,包括spiders、items.py、pipelines.py和settings.py文件。接着,定义数据字段并创建spider,具体编写爬虫脚本来抓取www.tipdm.com网站上的标题信息。最后,利用pipelines处理爬取的数据,将其保存为CSV文件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.认识Scrapy

 


2.创建项目

 

 使用anaconda

 

spiders文件夹:用来装一些爬虫脚本的文件夹

 items.py: 指定爬取数据字段

 pipelines.py: 项目管道

settings.py: 设置文件

使用PyCharm将其打开


3.指定字段及创建spiders

  

自己创建Python File需要自己写代码


4.完成spiders编写

import scrapy
from tipdmScrapy1.items import Tipdmscrapy1Item

class SpiderTitleSpider(scrapy.Spider):
    name = 'spider_title'
    allowed_domains = ['www.tipdm.com']  # 指定爬取网址范围
    start_urls = ['http://tipdm.com/gsxw/index.jhtml']  # 爬取网址列表

    def parse(self, response):
        item = Tipdmscrapy1Item  # 初始化item对象
        titles = [each.extract() for each in response.xpath('//*[@id="t251"]/div/div[3]/h1/a/text()')]  # 解析目标网址
        item[titles] = titles  # 将解析结果保存至item对象中

        return item  # 返回结果


5.运行程序保存数据

 

import pandas as pd

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html


# useful for handling different item types with a single interface
from itemadapter import ItemAdapter


class Tipdmscrapy1Pipeline:
    def process_item(self, item, spider):
        data = pd.DataFrame(dict(item))
        data.to_csv("title_pipelines.csv", encoding="utf-8-sig", index=None)

 然后取消settings.py中的 注释

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值