python爬虫(三)获取腾讯直聘上的岗位信息并保存为从CSV格式

这段代码展示了如何使用Python的requests库获取腾讯招聘网站的数据。通过设置headers伪装浏览器,发送GET请求到指定URL,并根据输入的起始页和终止页范围遍历,将职位名称、工作地点、类别、产品、更新时间和详情链接等信息写入CSV文件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述

在以下页面,获取源代码,发现没有相关数据
在这里插入图片描述

点击检查,发现相关数据
在这里插入图片描述
根据headers相关内容,完成获取
在这里插入图片描述

# 腾讯招聘

import csv
import json
import requests

headers = {
    'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36",
}

url = 'https://careers.tencent.com/tencentcareer/api/post/Query'

params = {'area': ' cn',
          'attrId': ' ',
          'bgIds': ' ',
          'categoryId': ' ',
          'cityId': ' ',
          'countryId': ' ',
          'keyword': ' ',
          'language': ' zh-cn',
          'pageIndex': 'pageIndex',
          'pageSize': '10',
          'parentCategoryId': ' ',
          'productId': ' ',
          'timestamp': ' 1602211262824'
}

begin=int(input("请输入起始页:" ))

end=int(input("请输入终止页:" ))

for page in range(begin,end+1):
    params['pageIndex']=page
    response = requests.get(url, params=params, headers=headers)
    data=json.loads(response.text)
    data_list = data["Data"]["Posts"]
    item={}
    for data in data_list:
        item["职位名称"] = data["RecruitPostName"]
        item["工作地点"] = data["LocationName"]
        item["类别"] = data["CategoryName"]
        item["产品"] = data["ProductName"]
        item["更新时间"] = data["LastUpdateTime"]
        item["详情链接"] = data["PostURL"]

        with open("腾讯招聘.csv", "a", encoding="utf-8") as file:
            writer = csv.writer(file)
            writer.writerow(item.values())
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值