新网创想网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
# 在命令行工具中使用
pip install requests
# 使用前需要导入
import requests
下面我们来看一下requests库的几种常用高级用法
创新互联专注为客户提供全方位的互联网综合服务,包含不限于成都网站设计、成都网站建设、烈山网络推广、重庆小程序开发公司、烈山网络营销、烈山企业策划、烈山品牌公关、搜索引擎seo、人物专访、企业宣传片、企业代运营等,从售前售中售后,我们都将竭诚为您服务,您的肯定,是我们最大的嘉奖;创新互联为所有大学生创业者提供烈山建站搭建服务,24小时服务热线:13518219792,官方网址:www.cdcxhl.com
from requests import Session
s = Session()
# 会话拿到
r = s.get('http://www.baidu.com')
print(r) #
print(r.cookies) # ]>
# 再次发起请求
r = s.get('https://www.csdn.net/')
print(r.text)
我们可以拿到一个名为
r
的 Response 对象,然后在这个对象中获取所有我们想要的信息,大家可以自己执行代码看看输出结果。
import requests
with requests.get('http://httpbin.org/get', stream=True) as r:
print(r.text)
requests.get()
的调用,都在做两件主要的事情,一个是在构建一个 Request 对象, 该对象将被发送到某个服务器请求或查询一些资源,其二是一旦 requests 得到一个从服务器返回的响应就会产生一个 Response 对象。该响应对象包含服务器返回的所有信息,也包含你原来创建的 Request 对象;
Prepared Request
对象。
from requests import Request, Session
s = Session()
# 获取Prepared Request对象
req = Request('GET', url,
data=data,
headers=header
)
prepped = req.prepare()
# do something with prepped.body
# do something with prepped.headers
resp = s.send(prepped,
stream=stream,
verify=verify,
proxies=proxies,
cert=cert,
timeout=timeout
)
print(resp.status_code)
urllib3.disable_warnings()
;
import requests
import urllib3
urllib3.disable_warnings()
# verify默认参数就是true
ret = requests.get('https://github.com', verify=True)
print(ret.status_code)
# 也可以关闭verify, 但是会有警告
ret = requests.get('https://github.com', verify=False)
print(ret.status_code)
with open('massive-body', 'rb') as f:
requests.post('http://some.url/streamed', data=f)
与requests.post("http://httpbin.org/post", files=files)不一样
Response.iter_content
或许更方便些。
requests.get(url)
默认是下载在内存中的,下载完成才存到硬盘上,可以用
Response.iter_content
来边下载边存
import requests
url = "http://DOMAIN/media/1.mp4"
# 这里设置stream=true的目的在于不会将内容全部储存在内存中,而是根据chunk_size的大小,去下载内容
ret = requests.get(url, stream=True)
with open('1.mp4', 'wb') as f:
for block in ret.iter_content(chunk_size=1024):
f.write(block)
然后把文件设到一个元组的列表中,其中元组结构为 (form_field_name, file_info):
import requests
url = 'http://httpbin.org/post'
multiple_files = [
# images是input的name属性
('images', ('foo.png', open('foo.png', 'rb'), 'image/png')),
('images', ('bar.png', open('bar.png', 'rb'), 'image/png'))]
r = requests.post(url, files=multiple_files)
print(r.text)
import requests
#普通代理
proxies = {
"http": "http://23.10.1.10:80",
"https": "https://23.10.1.11:80",
}
# 往请求中设置代理(proxies)
r = requests.get("https://www.baidu.com", proxies=proxies)
print(r.status_code)
# 带有用户名和密码的代理, basic认证
proxies = {
"http": "http://user:password@227.1.0.1:9999/",
}
r = requests.get("https://www.baidu.com", proxies=proxies)
print(r.status_code)
# 设置socks代理
proxies = {
'http': 'socks5://127.0.0.1:1080',
'https': 'socks5://127.0.0.1:1080'
}
r = requests.get("https://www.facebook.com", proxies=proxies)
print(r.status_code)
参考: https://www.9xkd.com/user/plan-view.html?id=3940257785