python爬虫-电影数据抓取

本文介绍了如何使用Python进行电影数据的爬取。通过进入目标页面,利用开发者工具分析网络请求,找到电影数据的URL及参数如start和limit。解析数据后,对获取的内容进行可视化处理,并保存为CSV文件。最后提供了完整的爬虫代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、进入此次爬取的页面点这里

2、按F12—> network

3、ctrl+r 刷新 如图搜索一个电影名,找到数据位置,然后查看

4、找到请求的url ‘?’后边的是参数,不要带上

5、参数单独拿出来

start:0 代表的是排行榜的第一部电影

limit:20   代表的是一次返回20条数据(20部电影)

start和limit都可以更改

param={
    'type': '24',
    'interval_id': '100:90',
    'action':'' ,
    'start': start,
    'limit': limit}

6、大致先看一看拿到的数据类型,然后解析,从其中拿到自己想要的数据

 7、开始编写代码:

import csv
import pprint
import requests

url='https://movie.douban.com/j/chart/top_list'
start=input('从库中第几部电影取:')
limit=input('取几部:')
param={
    'type': '24',
    'interval_id': '100:90',
    'action':'' ,
    'start': start,
    'limit': limit}
headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.102 Safari/537.36 Edg/98.0.1108.62'}
response=requests.get(url=url,params=param,headers=headers)
list_data=response.json()
pprint.pprint(list_data)

 运行代码,查看结果:

 拿到的的确是两条数据,然后从其中选择自己想要的数据出来,进行可视化处理,保存为csv格式

f=open('./豆瓣.csv','w',encoding='utf-8-sig',newline='')#a 是追加保存
csv_write=csv.DictWriter(f, fieldnames=[
    '电影名',
    '主演人数',
    '主演',
    '评分',
    '上映时间',
    '类型',
    '评论数',
    '拍摄国家',
])
csv_write.writeheader()

for i in list_data:
    dic={
        '电影名':i['title'],
        '主演人数':i['actor_count'],
        '主演':i['actors'],
        '评分':i['score'],
        '上映时间':i['release_date'],
        '类型': i['types'],
        '评论数': i['vote_count'],
        '拍摄国家':i['regions']
    }
    print(dic)
    csv_write.writerow(dic)

 运行:

 8.完整代码:

import csv
import requests

url='https://movie.douban.com/j/chart/top_list'
start=input('从库中第几部电影取:')
limit=input('取几部:')
param={
    'type': '24',
    'interval_id': '100:90',
    'action':'' ,
    'start': start,
    'limit': limit}
headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.102 Safari/537.36 Edg/98.0.1108.62'}
response=requests.get(url=url,params=param,headers=headers)
list_data=response.json()

f=open('./豆瓣.csv','w',encoding='utf-8-sig',newline='')#a 是追加保存
csv_write=csv.DictWriter(f, fieldnames=[
    '电影名',
    '主演人数',
    '主演',
    '评分',
    '上映时间',
    '类型',
    '评论数',
    '拍摄国家',
])
csv_write.writeheader()

for i in list_data:
    dic={
        '电影名':i['title'],
        '主演人数':i['actor_count'],
        '主演':i['actors'],
        '评分':i['score'],
        '上映时间':i['release_date'],
        '类型': i['types'],
        '评论数': i['vote_count'],
        '拍摄国家':i['regions']
    }
    print(dic)
    csv_write.writerow(dic)

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

唯一ovo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值