小调电影名称爬取

该博客介绍了如何使用Python爬虫从网站dy2018.com抓取电影名称及其链接。首先,通过requests和lxml库获取页面HTML,然后通过正则表达式提取电影名称。接着,遍历所有页面,提取每页的电影标题和链接,并保存到CSV文件中。过程中处理了编码问题,以避免出现乱码。当遇到版权问题导致无法获取链接时,程序会进行相应提示并跳过。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import requests,os
from lxml import etree
from urllib.parse import urljoin
import  re

pattern = re.compile(r"《(.*?)》")
url = 'https://www.dy2018.com/html/gndy/dyzz/index.html'
response = requests.get(url)
html_content = response.text
root = etree.HTML(html_content)

all_pages = root.xpath("//select[@name='select']/option/@value")
f = open('小调网.csv','w',encoding = 'utf8')
for page in all_pages:
    page = urljoin(url,page)
    response = requests.get(page)
    response.encoding = 'gbk'
    html_content = response.text
    root = etree.HTML(html_content)
    mov_name = root.xpath('//table/tr/td/b/a/@title')
    mov_url = root.xpath('//table/tr/td/b/a/@href')

    for mov_name,mov_url in zip(mov_name,mov_url):

       try:
            result = pattern.findall(mov_name)[0]
            href = urljoin(url,mov_url)
            response = requests.get(href)
            response.encoding= 'gbk'
            html_content = response.text
            root = etree.HTML(html_content)
          
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值