python爬虫中的requests库的使用get方法和post方法

这篇博客介绍了如何在Python中使用requests库进行HTTP请求。首先,通过cmd命令行使用pip安装requests库。接着,展示了一个简单的GET请求示例,包括获取URL内容、指定编码避免乱码以及打印响应的文本和内容。此外,还提到了POST方法的使用,虽然更复杂,需要指定URL和data参数,并可能涉及json模块。博客还涵盖了响应的headers、状态码的查看。

学习日记:文章有什么不对的请各位补充,我们在使用requests的时候先安装requests,win+r调出运行窗口输入cmd,回车,打开命令窗口输入pip install requests。如果安装不了,去看我写的python环境变

量配置。跳转链接Python环境变量配置和Python库的安装_originder的博客-CSDN博客Python超详细环境配置,后面有详细库的安装库的教程。https://blog.csdn.net/weixin_51521490/article/details/121410376

安装成功就可以使用这个requests的库了,get方法还是非常简单的。

import requests  #导入requests模块
url='https://www.baidu.com/'    

respones=requests.get(url=url)       #用get去获取这个url,返回一个请求头为response

response.encoding='utf-8'            #指定编码格式,不然会出现乱码

print(respones.text)                 #输出的格式为文本格式

查看响应内容

print(respones.content)       #二进制的文档格式
print('-----------------')
print(respones.text)          #文本文档的格式
print('-----------------')
print(respones.Headers)       #获取头文件
print('-----------------')
print(respones.status_code)   #查看状态码

          post方法稍微复杂一点post方法需要看你要做什么,然后再去填相应的url,再把data_from放进去。后面还要用到一个json的一个模块来转换

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

originder

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值