中文字幕第五页-中文字幕第页-中文字幕韩国-中文字幕最新-国产尤物二区三区在线观看-国产尤物福利视频一区二区

Python爬蟲request模塊如何使用-創新互聯

創新互聯www.cdcxhl.cn八線動態BGP香港云服務器提供商,新人活動買多久送多久,劃算不套路!

創新互聯是一家集網站建設,藍田企業網站建設,藍田品牌網站建設,網站定制,藍田網站建設報價,網絡營銷,網絡優化,藍田網站推廣為一體的創新建站企業,幫助傳統企業提升企業形象加強企業競爭力。可充分滿足這一群體相比中小企業更為豐富、高端、多元的互聯網需求。同時我們時刻保持專業、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學習、思考、沉淀、凈化自己,讓我們為更多的企業打造出實用型網站。

本篇文章為大家展示了Python爬蟲request模塊如何使用,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。

爬蟲——requests模塊

Requests繼承了urllib.request的所有特性,Requests支持HTTP連接保持和連接池,支持使用cookie保持會話,支持文件上傳,支持自動確定響應內容的編碼,支持國際化的URL和POST數據自動編碼。

相較于urllib.request而言,其使用更加簡潔方便。

基本GET請求(headers參數和parmas參數)

1.最基本的GET請求可以直接用get方法

#!/usr/bin/python3
# -*- coding:utf-8 -*-
import requests
 
response = requests.get("http://www.baidu.com/")
# 也可以這么寫
# response = requests.request("get", "http://www.baidu.com/")

2.添加headers和查詢參數

如果想添加headers,可以傳入headers參數來增加請求頭中的headers信息。如果要將參數放在url中傳遞,可以利用params參數。

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
 
url = "http://www.baidu.com/s?"
 
kw = {"wd":"爬蟲"}
 
# User-Agent頭
header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36'}
 
# params接收一個字典或者字符串的查詢參數,字典類型自動轉換為url編碼,不需要urlencode()
response = requests.get(url = url, params = kw, headers = header)
 
# 打印響應內容,response.text返回的是Unicode格式的數據
print(response.text)
# 打印響應內容,response.content返回的是字節流數據
# print(response.content)
 
# 查看完整的url地址
print(response.url)
 
# 查看響應頭部字符編碼
print(response.encoding)
 
# 查看響應碼
print(response.status_code)

使用response.text時,requests會基于HTTP響應的文本編碼自動解碼響應內容,大多數Unicode字符集都能被無縫地解碼。

使用response.content時,返回的是服務器響應數據的原始二進制字節流,可以用來保存圖片等二進制文件。

基本POST討還(data參數)

1.最基本的GET請求可以直接用post方法

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
 
response = requests.post("http://www.baidu.com/")
# 也可以這么寫
# response = requests.request("post", "http://www.baidu.com/")

2.傳入data數據

對于POST請求來說,我們一般需要為它增加一些參數。那么最基本的傳參方法可以利用data這個參數。

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
 
url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"
 
header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36'}
 
word = input("請輸入需要翻譯的詞條:")
 
from_data = {
    "i":word,
    "from":"AUTO",
    "to":"AUTO",
    "smartresult":"dict",
    "doctype":"json",
    "version":"2.1",
    "keyfrom":"fanyi.wed"
}
 
response = requests.post(url = url, data = from_data, headers = header)
 
# print(response.text)
print(response.json())

代理(proxies參數)

如果需要使用代理,你可以通過為任意請求方法提供proxies參數來配置單個請求:

#!/usr/bin/python3
# -*- coding:utf-8 -*-
__author__ = 'mayi'
 
import requests
 
# 根據協議類型,選擇不同的代理
proxies = {
    "http": "http://12.34.56.78:90",
    "https": "http://21.43.65.87:90"
}
 
response = requests.get("http://www.baidu.com/", proxies = proxies)
 
print(response.text)

Cookies和Sission

1.Cookies

如果一個響應中包含了cookie,那么我們可以利用cookies參數拿到:

#!/usr/bin/python3
# -*- coding:utf-8 -*-
__author__ = 'mayi'
 
import requests
 
response = requests.get("http://www.baidu.com/")
 
cookiejar = response.cookies
 
cookiedict = requests.utils.dict_from_cookiejar(cookiejar)
 
print(cookiejar)
 
print(cookiedict)

2.Sission

在requests里,session對象是一個非常常用的對象,這個對象代表一次用戶會話:從客戶端連接服務器開始,到客戶端瀏覽器與服務器斷開。

會話能讓我們在跨請求時候保持某些參數,比如在同一個Session實例發出的所有請求之間保持cookie。

實現人人網登錄

#!/usr/bin/python3
# -*- coding:utf-8 -*-
__author__ = 'mayi'
 
import requests
 
# 創建session對象,用于保存Cookie值
session = requests.session()
 
# User-Agent頭
header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36'}
 
# 需要登錄的賬戶和密碼
email = input("請輸入您的賬戶:")
password = input("請輸入您的密碼:")
data = {"email": email, "password": password}
 
# 發送附帶賬戶密碼的請求,并獲取登錄后的Cookie值,保存在session中
session.post("http://www.renren.com/PLogin.do", data = data)
 
# session中包含了登錄后的Cookie值,可以直接訪問那些需登錄后才能訪問的頁面
response = session.get("http://www.renren.com/413928886/profile")
 
# 打印響應內容
print(response.text)

上述內容就是Python爬蟲request模塊如何使用,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注創新互聯-成都網站建設公司行業資訊頻道。

文章名稱:Python爬蟲request模塊如何使用-創新互聯
本文鏈接:http://www.2m8n56k.cn/article18/cegigp.html

成都網站建設公司_創新互聯,為您提供外貿網站建設全網營銷推廣面包屑導航虛擬主機自適應網站企業網站制作

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:[email protected]。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

手機網站建設
主站蜘蛛池模板: 成人免费精品视频 | 亚洲第一看片 | 欧美精品aaa久久久影院 | 亚洲免费天堂 | 国产精品久久久久久久hd | 日韩视频在线观看一区 | 亚洲a级片在线观看 | 中文字幕综合在线 | 996re免费热在线视频手机 | 国产精品成人一区二区不卡 | 最新国产美女肝交视频播放 | 亚洲欧美自拍视频 | 欧美成人亚洲综合精品欧美激情 | 国产高清一区二区三区免费视频 | 黄网在线| 亚洲一区国产 | 亚洲第一页在线视频 | 99久久精品国产免看国产一区 | 亚洲国产一成人久久精品 | 亚洲欧美视频在线观看 | 欧美国产综合视频 | avtom影院入口永久在线 | 久久亚洲成a人片 | 国产第九页 | 日本三级在线观看中文字 | 久久久www成人免费精品 | 国产亚洲欧美久久精品 | 永久毛片| 日本一级毛片片在线播放 | 久久在线免费观看视频 | 成人免费毛片一区二区三区 | 久久亚洲国产欧洲精品一 | 亚洲女精品一区二区三区 | 午夜三级成人三级 | 97婷婷狠狠成人免费视频 | 在线欧美一级毛片免费观看 | 成人精品视频网站 | 一级女性全黄久久生活片免费 | 欧美一区二区三区播放 | 美女张开腿让男人桶下面 | 久久精品视频免费在线观看 |