1.发送get请求
import requests# response=requests.get('http://www.baidu.com')# 查看响应内容,返回的是已经解码的内容# response.text 服务器返回的数据,已解码。解码类型:根据HTTP头部对响应的编码做出有根据的推测,推测的文本编码# print(type(response.text))# print(response.text)# 百度返回的text有乱码,说明解码猜测的编码方式不对# 查看响应内容# print(type(response.content))# print(response.content.decode('utf-8'))# 解码正确,没有乱码# 查看完整url地址# print(response.url)# 查看响应头部字符编码# print(response.encoding)# 查看响应码# print(response.status_code)params = { 'wd': '中国'}headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36'}#params传入,会自动进行编码response=requests.get('http://www.baidu.com/s',headers=headers,params=params)print(response.url)with open('baidu.html','w',encoding='utf-8') as f: f.write(response.content.decode('utf-8'))
2.发送post请求
import requestsdata = { 'first': True, 'pn': 1, 'kd': 'python'}headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36', 'Referer': 'https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput=', 'Cookie':'JSESSIONID=ABAAABAAAFCAAEGE19E4DE9949656042D040782B344E314; SEARCH_ID=94069a753d8a4157a4b8a44284d4b719; user_trace_token=20190404002147-ba37c7c8-aa84-4a31-8171-738e6bcfadf2; X_HTTP_TOKEN=42daf4b72327b2817058034551bf5e71415983ed09'}response = requests.post('https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false',headers=headers,data=data)print(response.text)#把传来的数据转成原本数据类型(如果传输的是json格式的字符串)# print(response.json())#测试# ret=response.text# # import json# # ret=json.loads(ret)# # print(type(ret))
3.使用代理
import requests#不使用代理# response=requests.get('http://httpbin.org/ip')# print(response.text)#使用代理#尽量使用高匿名的代理,透明的话,它依然能识别原来的ip地址。proxy={ 'http':'112.85.149.79:9999'}response=requests.get('http://httpbin.org/ip',proxies=proxy)print(response.text)
4.处理cookie信息
import requests# response=requests.get('http://www.baidu.com')#返回的是一个对象# print(response.cookies)#获取字典形式信息# print(response.cookies.get_dict())#session#之前使用的urlib库,是可以使用opener发送多个请求,多个请求之间是可以共享cookie的。那么如果使用requests,#也要达到共享cookie的目的,那么可以使用requests库提供的session对象。它简化了我们每次模拟请求时都要带上cookie#的复杂操作,使用session它自己会帮我们带上headers里面的cookie信息url='http://www.renren.com/ajaxLogin/login?1=1&uniqueTimestamp=2019341135380'session=requests.session()data={ 'email':'9@qq.com', 'password':'pythonspr'}headers={ 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36'}session.post(url,data=data,headers=headers)#只有登录后才能查看大鹏的页面response=session.get('http://www.renren.com/880151247/profile',headers=headers)with open('renren.html','w',encoding='utf-8') as f: f.write(response.text)#查看页面,确实登录成功
5.处理不信任的ssl证书
#处理不信任的ssl证书,加上verify=False就可以了import requestsresp=requests.get('http://www.12306.cn',verify=False)print(resp.text)