小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

robots.txt寫法,規(guī)范,作用

 昵稱25551 2007-04-20

        Robots.txt是存放在網(wǎng)站根目錄下的一個文件,通常情況下,搜索引擎會對所有的網(wǎng)站頁面進(jìn)行抓取分析,如果一個網(wǎng)站管理員不想讓搜索引擎抓取一些頁面,比如網(wǎng)站管理后臺,網(wǎng)站次要目錄或者涉及到不愿被搜索引擎抓取公開的內(nèi)容等,則通過創(chuàng)建該文件來引導(dǎo)各大搜索引擎抓取。當(dāng)搜索引擎抓取一個站點(diǎn)時,會首先檢查其根目錄下是否有robots.txt存在。如果存在,則會按照文件中所規(guī)定的抓取范圍,若不存在,則會按照正常的方法進(jìn)行抓取。

        首先是了解各大搜索引擎spider名稱。

        Baiduspider[baidu]    Scooter[altavista]    ia_archiver[alexa]    Googlebot[google]    FAST-WebCrawler[alltheweb]     MSNBOT[MSN]

        SEO中國robots.txt的寫法:

        User-agent: *
        Disallow: /dir/admin/

        User-agent是指定搜索引擎robot的名字,即若針對baidu則會對應(yīng)的值是Baiduspider,google對應(yīng)的是Googlebot等。如果針對所有搜索引擎均有效,則保留為*值。

        Disallow是規(guī)定讓搜索引擎忽略抓取的目錄。例如,http://www./dirSEO中國分類目錄地址,而其管理地址是對搜索引擎抓取沒有任何意義的目錄,則該例中,/dir/admin/為所有搜索引擎所禁止抓取。

        Disallow書寫方法:默認(rèn)從根目錄出發(fā),指定忽略的目錄,末尾加上/
        指定多個目錄:
        Disallow: /dir/admin/
        Disallow: /a/
        Disallow: /b/

        以上是針對網(wǎng)站目錄抓取情況進(jìn)行處理,如何進(jìn)行單個文件處理呢?采用Robots Meta方法。

        和其他的meta,如description.keywords等相同,書寫到<head></head>之間

        <head>
        <title>SEO中國,搜索引擎優(yōu)化,網(wǎng)站優(yōu)化,網(wǎng)站SEO研究</title>
        <meta name="Robots" content="index,follow">
        <meta name="Keywords" content="SEO中國, 網(wǎng)站排名, Google左側(cè)排名, 搜索引擎優(yōu)化, SEO研究, SEO資訊, SEO下載, SEO案例, 網(wǎng)站推廣">
        <meta name="Description" content="SEO中國致力于網(wǎng)站優(yōu)化,Google左側(cè)排名,搜索引擎優(yōu)化,中國網(wǎng)站SEO研究,提高中國網(wǎng)站搜索引擎排名競爭力.">
        </head>

        則規(guī)定了該頁的抓取方法:正常抓取,順序抓取。

        與之對應(yīng)的是:"noindex,nofollow"。Robots則可以指定為各大單個搜索引擎spider名稱。另外,Googlebot還制定了archive用于規(guī)定網(wǎng)頁快照的保留與否。
 

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多