Requests模块介绍:
发送http请求,获取响应数据
requests模块是一个第三方模块,需要在你的python(虚拟)环境中额外安装:
pip/pip3 install requests
requests基础:
requests模块发送get请求
Response响应对象:
观察上边代码运行结果发现,有好多乱码;这是因为编解码使用的字符集不同造成的;我们尝试使用下边的办法来解决中文乱码问题
import requests
url = 'https://www.baidu.com'
# 向目标url发送get请求
response = requests.get(url)
# 打印响应内容
# print(response.text)
print(response.content.decode()) # 注意这里!
1、response.text是requests模块按照chardet模块推测出的编码字符集进行解码的结果
2、网络传输的字符串都是bytes类型的,所以response.text = response.content.decode(‘推测出的编码字符集’)
3、我们可以在网页源码中搜索charset,尝试参考该编码字符集,注意存在不准确的情况。
Response.text 和Response.content的区别:
1、Response.text
2、Response.content
解决中文乱码:
通过对response.content进行decode,来解决中文乱码
1、Response.content.decode() 默认utf-8
2、Response.content.decode("GBK")
utf-8
gbk
gb2312
ascii (读音:阿斯克码)
iso-8859-1
Response响应对象的其它常用属性或方法:
#https://beishan.blog.csdn.net/
# 1.2.3-response其它常用属性
import requests
# 目标url
url = 'https://www.baidu.com'
# 向目标url发送get请求
response = requests.get(url)
# 打印响应内容
# print(response.text)
# print(response.content.decode()) # 注意这里!
print(response.url)# 打印响应的url
print(response.status_code)# 打印响应的状态码
print(response.request.headers)# 打印响应对象的请求头
print(response.headers)# 打印响应头
print(response.request._cookies)# 打印请求携带的cookies
print(response.cookies)# 打印响应中携带的cookies
Requests实操:
requests模块发送请求
发送带header的请求
我们先写一个获取百度首页的代码
import requests
url = 'http://www.bstarfood.com'
response = requests.get(url)
print(response.content.decode())
# 打印响应对应请求的请求头信息
print(response.request.headers)
从浏览器中复制User-Agent,构造Headers字典;完成下面的代码后,运行代码查看结果
import requests
url = 'http://www.bstarfood.com'
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
# 在请求头中带上User-Agent,模拟浏览器发送请求
response = requests.get(url, headers=headers)
print(response.content)
# 打印请求头信息
print(response.request.headers)
发送带参数的请求:
我们在使用百度搜索的时候经常发现url地址中会有一个 ?,那么该问号后边的就是请求参数,又叫做查询字符串
在url携带参数,直接对含有参数的url发起请求
import requests
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
url = 'https://www.baidu.com/s?wd=python'
response = requests.get(url, headers=headers)
通过Params携带参数字典:
1.构建请求参数字典
2.向接口发送请求的时候带上参数字典,参数字典设置给params
import requests
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
# 这是目标url
# url = 'https://www.baidu.com/s?wd=python'
# 最后有没有问号结果都一样
url = 'https://www.baidu.com/s?'
# 请求参数是一个字典 即wd=python
kw = {'wd': 'python'}
# 带上请求参数发起请求,获取响应
response = requests.get(url, headers=headers, params=kw)
print(response.content)
import requests
url = 'https://github.com/USER_NAME'
# 构造请求头字典
headers = {
# 从浏览器中复制过来的User-Agent
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36',
# 从浏览器中复制过来的Cookie
'Cookie': 'xxx这里是复制过来的cookie字符串'
}
# 请求头参数字典中携带cookie字符串
resp = requests.get(url, headers=headers)
print(resp.text)
超时参数timeout的使用:
在平时网上冲浪的过程中,我们经常会遇到网络波动,这个时候,一个请求等了很久可能仍然没有结果。
在爬虫中,一个请求很久没有结果,就会让整个项目的效率变得非常低,这个时候我们就需要对请求进行强制要求,让他必须在特定的时间内返回结果,否则就报错。
1、超时参数timeout的使用方法
response = requests.get(url, timeout=3)
2、timeout=3表示:发送请求后,3秒钟内返回响应,否则就抛出异常
Requests发送post请求的方法: