在眾多編程語言當中,python爬蟲是IT從業者經常用到的。但是還有很多不懂代碼的人,對于python爬蟲是什么不了解,今天我們就來詳細介紹一下,python爬蟲基礎的入門知識,這些小知識包括:python爬蟲定義、爬蟲基本流程、http協議請求與響應。希望通過閱讀本文,對不了解的人有一定的幫助。
python爬蟲是什么
爬蟲(spider,又網絡爬蟲),是指向網站/網絡發起請求,獲取資源后分析并提取有用數據的程序。
從技術層面來說就是 通過程序模擬瀏覽器請求站點的行為,把站點返回的HTML代碼/JSON數據/二進制數據(圖片、視頻) 爬到本地,進而提取自己需要的數據,存放起來使用。
爬蟲基本流程
用戶獲取網絡數據的方式:
方式1:瀏覽器提交請求--->下載網頁代碼--->解析成頁面
方式2:模擬瀏覽器發送請求(獲取網頁代碼)->提取有用的數據->存放于數據庫或文件中爬蟲要做的就是方式2。
1.發起請求
使用http庫向目標站點發起請求,即發送一個Request
Request包含:請求頭、請求體等 Request模塊缺陷:不能執行JS 和CSS 代碼。
2.獲取響應內容
如果服務器能正常響應,則會得到一個ResponseResponse包含:html,json,圖片,視頻等
3.解析內容
解析html數據:正則表達式(RE模塊)、xpath(主要使用)、beautiful soup、css解析json數據:json模塊解析二進制數據:以wb的方式寫入文件。
4.保存數據
數據庫(MySQL,Mongdb、Redis)或 文件的形式。
http協議請求與響應
http協議:
Request:用戶將自己的信息通過瀏覽器(socket client)發送給服務器(socket server)
Response:服務器接收請求,分析用戶發來的請求信息,然后返回數據(返回的數據中可能包含其他鏈接,如:圖片,js,css等)
ps:瀏覽器在接收Response后,會解析其內容來顯示給用戶,而爬蟲程序在模擬瀏覽器發送請求然后接收Response后,是要提取其中的有用數據。
1.request
(1)請求方式
常見的請求方式:GET / POST
(2)請求的URL
url全球統一資源定位符,用來定義互聯網上一個唯一的資源 例如:一張圖片、一個文件、一段視頻都可以用url唯一確定
(3)請求頭
●User-agent:請求頭中如果沒有user-agent客戶端配置,服務端可能將你當做一個非法用戶host
●cookies:cookie用來保存登錄信息
注意:一般做爬蟲都會加上請求頭。
請求頭需要注意的參數:
●Referrer:訪問源至哪里來(一些大型網站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)
●User-Agent:訪問的瀏覽器(要加上否則會被當成爬蟲程序)
●cookie:請求頭注意攜帶
(4)請求體
請求體 如果是get方式,請求體沒有內容 (get請求的請求體放在 url后面參數中,直接能看到) 如果是post方式,請求體是format data
ps:1、登錄窗口,文件上傳等,信息都會被附加到請求體內 2、登錄,輸入錯誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會跳轉,無法捕捉到post
2.response
(1)響應狀態碼
●200:代表成功
●301:代表跳轉
●404:文件不存在
●403:無權限訪問
●502:服務器錯誤
(2)response header
響應頭需要注意的參數:Set-Cookie:BDSVRTM=0; path=/:可能有多個,是來告訴瀏覽器,把cookie保存下來
(3)preview就是網頁源代碼
●json數據
●如網頁html,圖片
●二進制數據等
通過上述介紹,python爬蟲是什么相信大家已經清楚了吧,想了解更多關于python爬蟲的信息,請繼續關注中培偉業。