<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 想成為Python高手,必須看這篇爬蟲(chóng)原理介紹?。ǜ?9個(gè)爬蟲(chóng)項目)

想成為Python高手,必須看這篇爬蟲(chóng)原理介紹?。ǜ?9個(gè)爬蟲(chóng)項目)

發(fā)布人:傳感器技術(shù) 時(shí)間:2022-12-14 來(lái)源:工程師 發(fā)布文章

互聯(lián)網(wǎng)是由一個(gè)個(gè)站點(diǎn)和網(wǎng)絡(luò )設備組成的大網(wǎng),我們通過(guò)瀏覽器訪(fǎng)問(wèn)站點(diǎn),站點(diǎn)把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經(jīng)過(guò)瀏覽器解析、渲染,將豐富多彩的網(wǎng)頁(yè)呈現我們眼前。


一、爬蟲(chóng)是什么?


如果我們把互聯(lián)網(wǎng)比作一張大的蜘蛛網(wǎng),數據便是存放于蜘蛛網(wǎng)的各個(gè)節點(diǎn),而爬蟲(chóng)就是一只小蜘蛛,沿著(zhù)網(wǎng)絡(luò )抓取自己的獵物(數據)爬蟲(chóng)指的是:向網(wǎng)站發(fā)起請求,獲取資源后分析并提取有用數據的程序。


從技術(shù)層面來(lái)說(shuō)就是 通過(guò)程序模擬瀏覽器請求站點(diǎn)的行為,把站點(diǎn)返回的HTML代碼/JSON數據/二進(jìn)制數據(圖片、視頻) 爬到本地,進(jìn)而提取自己需要的數據,存放起來(lái)使用;

 

圖片

 

二、爬蟲(chóng)的基本流程


用戶(hù)獲取網(wǎng)絡(luò )數據的方式:

方式1:瀏覽器提交請求--->下載網(wǎng)頁(yè)代碼--->解析成頁(yè)面

方式2:模擬瀏覽器發(fā)送請求(獲取網(wǎng)頁(yè)代碼)->提取有用的數據->存放于數據庫或文件中

爬蟲(chóng)要做的就是方式2。

圖片

1、發(fā)起請求

使用http庫向目標站點(diǎn)發(fā)起請求,即發(fā)送一個(gè)Request

Request包含:請求頭、請求體等 

Request模塊缺陷:不能執行JS 和CSS 代碼

 

2、獲取響應內容

如果服務(wù)器能正常響應,則會(huì )得到一個(gè)Response

Response包含:html,json,圖片,視頻等

 

3、解析內容

解析html數據:正則表達式(RE模塊),第三方解析庫如Beautifulsoup,pyquery等

解析json數據:json模塊

解析二進(jìn)制數據:以wb的方式寫(xiě)入文件

 

4、保存數據

數據庫(MySQL,Mongdb、Redis)

文件

 

三、http協(xié)議 請求與響應


圖片

 

Request:用戶(hù)將自己的信息通過(guò)瀏覽器(socket client)發(fā)送給服務(wù)器(socket server)

Response:服務(wù)器接收請求,分析用戶(hù)發(fā)來(lái)的請求信息,然后返回數據(返回的數據中可能包含其他鏈接,如:圖片,js,css等)

ps:瀏覽器在接收Response后,會(huì )解析其內容來(lái)顯示給用戶(hù),而爬蟲(chóng)程序在模擬瀏覽器發(fā)送請求然后接收Response后,是要提取其中的有用數據。

 

四、 request


1、請求方式:

常見(jiàn)的請求方式:GET / POST

 

2、請求的URL

url全球統一資源定位符,用來(lái)定義互聯(lián)網(wǎng)上一個(gè)唯一的資源 例如:一張圖片、一個(gè)文件、一段視頻都可以用url唯一確定

 

url編碼

https://www.baidu.com/s?wd=圖片

圖片會(huì )被編碼(看示例代碼)

 

網(wǎng)頁(yè)的加載過(guò)程是:

加載一個(gè)網(wǎng)頁(yè),通常都是先加載document文檔,

在解析document文檔的時(shí)候,遇到鏈接,則針對超鏈接發(fā)起下載圖片的請求

 

3、請求頭

User-agent:請求頭中如果沒(méi)有user-agent客戶(hù)端配置,服務(wù)端可能將你當做一個(gè)非法用戶(hù)host;

cookies:cookie用來(lái)保存登錄信息

注意:一般做爬蟲(chóng)都會(huì )加上請求頭

圖片

圖片

圖片


請求頭需要注意的參數:

(1)Referrer:訪(fǎng)問(wèn)源至哪里來(lái)(一些大型網(wǎng)站,會(huì )通過(guò)Referrer 做防盜鏈策略;所有爬蟲(chóng)也要注意模擬)

(2)User-Agent:訪(fǎng)問(wèn)的瀏覽器(要加上否則會(huì )被當成爬蟲(chóng)程序)

(3)cookie:請求頭注意攜帶


4、請求體


請求體

如果是get方式,請求體沒(méi)有內容 (get請求的請求體放在 url后面參數中,直接能看到)
如果是post方式,請求體是format data

ps:

1、登錄窗口,文件上傳等,信息都會(huì )被附加到請求體內

2、登錄,輸入錯誤的用戶(hù)名密碼,然后提交,就可以看到post,正確登錄后頁(yè)面通常會(huì )跳轉,無(wú)法捕捉到post

 

五、 響應Response


1、響應狀態(tài)碼

200:代表成功

301:代表跳轉


404:文件不存在

403:無(wú)權限訪(fǎng)問(wèn)

502:服務(wù)器錯誤

 

2、respone header


響應頭需要注意的參數:

(1)Set-Cookie:BDSVRTM=0; path=/:可能有多個(gè),是來(lái)告訴瀏覽器,把cookie保存下來(lái)

(2)Content-Location:服務(wù)端響應頭中包含Location返回瀏覽器之后,瀏覽器就會(huì )重新訪(fǎng)問(wèn)另一個(gè)頁(yè)面

 

3、preview就是網(wǎng)頁(yè)源代碼

JSO數據

如網(wǎng)頁(yè)html,圖片

二進(jìn)制數據等 

 

六、總結


1、總結爬蟲(chóng)流程:

 爬取--->解析--->存儲

 

2、爬蟲(chóng)所需工具:

 請求庫:requests,selenium(可以驅動(dòng)瀏覽器解析渲染CSS和JS,但有性能劣勢(有用沒(méi)用的網(wǎng)頁(yè)都會(huì )加載);)
 解析庫:
正則,beautifulsoup,pyquery
 存儲庫:文件,MySQL,Mongodb,Redis

 

補充:29個(gè)Python爬蟲(chóng)項目(所有鏈接指向GitHub)


WechatSogou [1]- 微信公眾號爬蟲(chóng)。基于搜狗微信搜索的微信公眾號爬蟲(chóng)接口,可以擴展成基于搜狗搜索的爬蟲(chóng),返回結果是列表,每一項均是公眾號具體信息字典。

鏈接:https://github.com/Chyroc/WechatSogou

DouBanSpider [2]- 豆瓣讀書(shū)爬蟲(chóng)。可以爬下豆瓣讀書(shū)標簽下的所有圖書(shū),按評分排名依次存儲,存儲到Excel中,可方便大家篩選搜羅,比如篩選評價(jià)人數>1000的高分書(shū)籍;可依據不同的主題存儲到Excel不同的Sheet ,采用User Agent偽裝為瀏覽器進(jìn)行爬取,并加入隨機延時(shí)來(lái)更好的模仿瀏覽器行為,避免爬蟲(chóng)被封。

鏈接:https://github.com/lanbing510/DouBanSpider

zhihu_spider [3]- 知乎爬蟲(chóng)。此項目的功能是爬取知乎用戶(hù)信息以及人際拓撲關(guān)系,爬蟲(chóng)框架使用scrapy,數據存儲使用mongo 

鏈接:https://github.com/LiuRoy/zhihu_spider

bilibili-user [4]- Bilibili用戶(hù)爬蟲(chóng)。總數據數:20119918,抓取字段:用戶(hù)id,昵稱(chēng),性別,頭像,等級,經(jīng)驗值,粉絲數,生日,地址,注冊時(shí)間,簽名,等級與經(jīng)驗值等。抓取之后生成B站用戶(hù)數據報告。

鏈接:https://github.com/airingursb/bilibili-user

SinaSpider [5]- 新浪微博爬蟲(chóng)。主要爬取新浪微博用戶(hù)的個(gè)人信息、微博信息、粉絲和關(guān)注。代碼獲取新浪微博Cookie進(jìn)行登錄,可通過(guò)多賬號登錄來(lái)防止新浪的反扒。主要使用 scrapy 爬蟲(chóng)框架。

鏈接:https://github.com/LiuXingMing/SinaSpider

distribute_crawler [6]- 小說(shuō)下載分布式爬蟲(chóng)。使用scrapy,Redis, MongoDB,graphite實(shí)現的一個(gè)分布式網(wǎng)絡(luò )爬蟲(chóng),底層存儲MongoDB集群,分布式使用Redis實(shí)現,爬蟲(chóng)狀態(tài)顯示使用graphite實(shí)現,主要針對一個(gè)小說(shuō)站點(diǎn)。

鏈接:https://github.com/gnemoug/distribute_crawler

CnkiSpider [7]- 中國知網(wǎng)爬蟲(chóng)。設置檢索條件后,執行src/CnkiSpider.py抓取數據,抓取數據存儲在/data目錄下,每個(gè)數據文件的第一行為字段名稱(chēng)。

鏈接:https://github.com/yanzhou/CnkiSpider

LianJiaSpider [8]- 鏈家網(wǎng)爬蟲(chóng)。爬取北京地區鏈家歷年二手房成交記錄。涵蓋鏈家爬蟲(chóng)一文的全部代碼,包括鏈家模擬登錄代碼。

鏈接:https://github.com/yanzhou/CnkiSpider

scrapy_jingdong [9]- 京東爬蟲(chóng)。基于scrapy的京東網(wǎng)站爬蟲(chóng),保存格式為csv。

鏈接:https://github.com/taizilongxu/scrapy_jingdong

QQ-Groups-Spider [10]- QQ 群爬蟲(chóng)。批量抓取 QQ 群信息,包括群名稱(chēng)、群號、群人數、群主、群簡(jiǎn)介等內容,最終生成 XLS(X) / CSV 結果文件。

鏈接:https://github.com/caspartse/QQ-Groups-Spider

wooyun_public[11]-烏云爬蟲(chóng)。烏云公開(kāi)漏洞、知識庫爬蟲(chóng)和搜索。全部公開(kāi)漏洞的列表和每個(gè)漏洞的文本內容存在MongoDB中,大概約2G內容;如果整站爬全部文本和圖片作為離線(xiàn)查詢(xún),大概需要10G空間、2小時(shí)(10M電信帶寬);爬取全部知識庫,總共約500M空間。漏洞搜索使用了Flask作為web server,bootstrap作為前端。

鏈接:https://github.com/hanc00l/wooyun_public

spider[12]- hao123網(wǎng)站爬蟲(chóng)。以hao123為入口頁(yè)面,滾動(dòng)爬取外鏈,收集****,并記錄****上的內鏈和外鏈數目,記錄title等信息,windows7 32位上測試,目前每24個(gè)小時(shí),可收集數據為10萬(wàn)左右。

鏈接:https://github.com/hanc00l/wooyun_public

findtrip [13]- 機****爬蟲(chóng)(去哪兒和攜程網(wǎng))。Findtrip是一個(gè)基于Scrapy的機****爬蟲(chóng),目前整合了國內兩大機****網(wǎng)站(去哪兒 + 攜程)。

鏈接:https://github.com/hanc00l/wooyun_public

163spider [14] - 基于requests、MySQLdb、torndb的網(wǎng)易客戶(hù)端內容爬蟲(chóng)。

鏈接:https://github.com/leyle/163spider

doubanspiders[15]- 豆瓣電影、書(shū)籍、小組、相冊、東西等爬蟲(chóng)集 writen by Python  

鏈接:https://github.com/sdfzy/doubanspiders

QQSpider [16]- QQ空間爬蟲(chóng),包括日志、說(shuō)說(shuō)、個(gè)人信息等,一天可抓取 400 萬(wàn)條數據。

鏈接:https://github.com/LiuXingMing/QQSpider

baidu-music-spider [17]- 百度mp3全站爬蟲(chóng),使用redis支持斷點(diǎn)續傳。

鏈接:https://github.com/Shu-Ji/baidu-music-spider

tbcrawler[18]- 淘寶和天貓的爬蟲(chóng),可以根據搜索關(guān)鍵詞,物品id來(lái)抓去頁(yè)面的信息,數據存儲在mongodb。

鏈接:https://github.com/pakoo/tbcrawler

stockholm [19]- 一個(gè)股****數據(滬深)爬蟲(chóng)和選股策略測試框架。根據選定的日期范圍抓取所有滬深兩市股****的行情數據。支持使用表達式定義選股策略。支持多線(xiàn)程處理。保存數據到JSON文件、CSV文件。

鏈接:https://github.com/benitoro/stockholm

BaiduyunSpider[20]-百度云盤(pán)爬蟲(chóng)。

鏈接:https://github.com/k1995/BaiduyunSpider

Spider[21]-社交數據爬蟲(chóng)。支持微博,知乎,豆瓣。

鏈接:https://github.com/Qutan/Spider

proxy pool[22]-Python爬蟲(chóng)代理IP池(proxy pool)。

鏈接:https://github.com/Qutan/Spider

music-163[23]-爬取網(wǎng)易云音樂(lè )所有歌曲的評論。

鏈接:https://github.com/RitterHou/music-163

CnblogsSpider[24]-cnblogs列表頁(yè)爬蟲(chóng)。

鏈接:https://github.com/jackgitgz/CnblogsSpider

spider_smooc[25]-爬取慕課網(wǎng)視頻。

鏈接:https://github.com/jackgitgz/CnblogsSpider

knowsecSpider2[26]-知道創(chuàng )宇爬蟲(chóng)題目。

鏈接:https://github.com/littlethunder/knowsecSpider2

SinaSpider[27]-動(dòng)態(tài)IP解決新浪的反爬蟲(chóng)機制,快速抓取內容。

鏈接:https://github.com/szcf-weiya/SinaSpider

csdn-spider[28]-爬取CSDN上的博客文章。

鏈接:https://github.com/Kevinsss/csdn-spider

ProxySpider[29]-爬取西刺上的代理IP,并驗證代理可用性。

鏈接:https://github.com/changetjut/ProxySpider

來(lái)源:玩轉單片機



*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: 爬蟲(chóng)

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>