小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

robots.txt 快速抓取網(wǎng)站

 鷹兔牛熊眼 2019-01-23

在我抓取網(wǎng)站遇到瓶頸,想劍走偏鋒去解決時,常常會先去看下該網(wǎng)站的robots.txt文件,有時會給你打開另一扇抓取之門。


寫爬蟲有很多苦惱的事情,比如:


1.訪問頻次太高被限制;

2.如何大量發(fā)現(xiàn)該網(wǎng)站的URL;

3.如何抓取一個網(wǎng)站新產(chǎn)生的URL,等等;


這些問題都困擾著爬蟲選手,如果有大量離散 IP 和賬號,這些都不是問題,但是絕大部分公司都不具備這個條件的。


我們在工作中寫的爬蟲大多是一次性和臨時性的任務,需要你快速完成工作就好,當遇到上面情況,試著看下 robots.txt 文件。


舉個栗子:


老板給你布置一個任務,把豆瓣每天新產(chǎn)生的影評,書評,小組帖子,同城帖子,個人日志抓取下來。


初想一下,這任務得有多大,豆瓣有 1.6 億注冊用戶,光是抓取個人日志這一項任務,每個人的主頁你至少每天要訪問一次。


這每天就得訪問 1.6 億次,小組/同城帖子等那些還沒算在內。


設計一個常規(guī)爬蟲,靠著那幾十個IP是完不成任務的。


初窺robots.txt


當老板給你了上面的任務,靠著你這一兩桿槍,你怎么完成,別給老板講技術,他不懂,他只想要結果。


我們來看下豆瓣的 robots.txt

https://www.douban.com/robots.txt


看圖片上面紅框處,是兩個 sitemap 文件

打開 sitemap_updated_index 文件看一下:



里面是一個個壓縮文件,文件里面是豆瓣頭一天新產(chǎn)生的影評,書評,帖子等等,感興趣的可以去打開壓縮文件看一下。


也就是說每天你只需要訪問這個 robots.tx t里的 sitemap 文件就可以知道有哪些新產(chǎn)生的URL。


不用去遍歷豆瓣網(wǎng)站上那幾億個鏈接,極大節(jié)約了你的抓取時間和爬蟲設計復雜度,也降低了豆瓣網(wǎng)站的帶寬消耗,這是雙贏啊,哈哈。


上面通過 robots.txt 的 sitemap 文件找到了抓取一個網(wǎng)站新產(chǎn)生URL的偏方。沿著該思路也能解決發(fā)現(xiàn)網(wǎng)站大量 URL 的問題。


再舉個栗子:


老板又給你一個任務,老板說上次抓豆瓣你說要大量 IP 才能搞定抓豆瓣每天新產(chǎn)生的帖子,這次給你 1000 個 IP 把天眼查上的幾千萬家企業(yè)工商信息抓取下來。


看著這么多 IP 你正留著口水,但是分析網(wǎng)站后發(fā)現(xiàn)這類網(wǎng)站的抓取入口很少(抓取入口是指頻道頁,聚合了很多鏈接的那種頁面)。


很容易就把儲備的 URL 抓完了,干看著這么多 IP 工作不飽滿。


如果一次性能找到這個網(wǎng)站幾萬乃至幾十萬個 URL 放進待抓隊列里,就可以讓這么多 IP 工作飽滿起來,不會偷懶了。

我們來看他的 robots.txt 文件:

https://www.tianyancha.com/robots.txt



打開紅框處的 sitemap,里面有 3 萬個公司的 URL,上圖是 1 月 3 號生成的,那個 URL 是根據(jù)年月日生成的,你把 URL 改成 1 月 2 號,又能看到 2 號的 sitemap 里的幾萬個公司 URL,這樣就能發(fā)現(xiàn)十幾萬個種子 URL 供你抓取了。


PS:上面的 sitemap 其實也能解決抓取天眼查最近更新的,新產(chǎn)生 URL 的問題。


小小的一個取巧,既降低了爬蟲設計的復雜度,又降低了對方的帶寬消耗。


這在工作中非常適用,工作中不會在意你用的框架多好,只在意你做事的快慢和好壞。


善于看 robots.txt 文件你會發(fā)現(xiàn)一些別有洞天的東西。

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多