• 摘要:

    日照網(wǎng)站公司分析,robots協(xié)議對于我們的網(wǎng)站建設(shè)很重要的,可以很好的保護(hù)我們網(wǎng)站一些文件不會(huì)裸露在搜索引擎之下,進(jìn)而就會(huì)有效的控制搜索引擎蜘蛛的抓取路徑,為我們站長做好網(wǎng)站seo創(chuàng)造必要的條件。特別是我們的網(wǎng)站剛剛創(chuàng)建,有些內(nèi)容還不是很完善,暫時(shí)還不想被搜索引擎收錄時(shí),就可以很好的使用robots協(xié)議,發(fā)揮robots協(xié)議大的價(jià)值。
    日照網(wǎng)站公司案例
    robots.txt協(xié)議文件屬于網(wǎng)站的一個(gè)純文本文件,主要是給搜索引擎蜘蛛看的。搜索引擎蜘蛛爬行到我們的網(wǎng)站,步就是抓取這個(gè)文件--robots協(xié)議,根據(jù)里面描述的內(nèi)容來決定對我們網(wǎng)站文件訪問的大概框架。

    日照網(wǎng)站公司
    日照網(wǎng)站公司-鼎欣總結(jié),robots.txt文件應(yīng)該放在我們網(wǎng)站的根目錄下。
    在一個(gè)站點(diǎn)上不僅擁有唯一一個(gè)"/robots.txt"文件,而且文件名的每個(gè)字母要求全部是小寫。
    robots.txt文件用法舉例
    例1.禁止所有搜索引擎訪問網(wǎng)站的任何部分
    下載該robots.txt文件User-agent:*
    Disallow:/
    例2.允許所有的robot訪問
    (或者也可以建一個(gè)空文件"/robots.txt"file)
    User-agent:*
    Disallow:
    例3.禁止某個(gè)搜索引擎的訪問
    User-agent:BadBot
    Disallow:/
    例4.允許某個(gè)搜索引擎的訪問
    User-agent:搜索引擎spider
    Disallow:
    User-agent:*
    Disallow:/
    一個(gè)簡單例子
    在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對搜索引擎的訪問做了限制,即搜索引擎不會(huì)訪問這三個(gè)目錄。
    日照網(wǎng)站公司-鼎欣提醒大家需要注意的是對每一個(gè)目錄必須分開聲明,而不要成"Disallow:/cgi-bin//tmp/"。
    User-agent:后的*具有特殊的含義,代表"anyrobot",所以在該文件中不能有"Disallow:
    /tmp/*"or"Disallow:*.gif"這樣的記錄出現(xiàn).
    User-agent:*
    Disallow:/cgi-bin/
    Disallow:/tmp/
    Disallow:/~joe/



     
    !--左邊導(dǎo)航--> 国产亚洲一区交换在线,91久久精品美女高潮喷了水,日本三级2020亚洲视频,免费人妻中文字幕Av片 亚洲人成在线中文无码毛片