一個網(wǎng)站,robots.txt是一個重要的文本文件,每個網(wǎng)站都應當有一個設置正確的robots.txt。
當搜索引擎來抓取你的網(wǎng)站文件之前,它們會先來看看你網(wǎng)站的robots.txt文件的設置,以了解你所允許它抓取的范圍,包括哪些文件,哪些目錄。
那么如何配置您的robots.txt文件呢?
讓我們看一個例子:
# robots.txt file start
# Exclude Files From All Robots:
User-agent: *
Disallow: /security/
Disallow: /admin/
Disallow: /admin.htm
# End robots.txt file
有#號的都是注釋,方便閱讀。
User-agent就是搜索引擎的蜘蛛,后面用了*號,表示對所有的蜘蛛有效。
Disallow就是表示不允許抓取,后面的目錄或者文件,表示禁止抓取的范圍。
如果你有一些文件,或者目錄,比如后臺程序,或者一些私人隱秘的內容,不希望公開的話,就用這個Disallow來阻止抓取。
編輯好這個文件,然后保存在你的網(wǎng)站的根目錄下,那么搜索引擎就會來看的。
如果你沒有robots.txt文件,在你的網(wǎng)站訪問日志文件里,你會看到蜘蛛訪問robots.txt文件不成功的紀錄。
有關robots文件的編寫

相關文章
2021年優(yōu)度成功簽約并完成泰坦凝膠官網(wǎng)
此網(wǎng)站采用標準網(wǎng)站建設方案,PC+移動自動轉換模式,網(wǎng)站產(chǎn)品為一款火爆的微商產(chǎn)品,也是一款男性用品。...
備案與沒備案的新網(wǎng)站老域名為什么百度都不收錄?
現(xiàn)在互聯(lián)網(wǎng)越來越難做,百度的門檻越來越高,以前新網(wǎng)站上線提交后3天就會收錄,現(xiàn)在新網(wǎng)站上線每天提交還不一定會收錄,必須結合外鏈才有效。...
做好“著陸頁”,公司銷售業(yè)績將提升一大步
當今,一個能在用戶尋找“返回”按鈕之前抓住用戶眼球的著陸頁比以往任何時候都更有商業(yè)價值。值得慶幸的是,一個好的著陸頁面的設計過程比以往更加容易把握,訣竅在于弄清楚實現(xiàn)這個非常重要的切入點所需的核心要素...
什么是關鍵詞?
關鍵詞就是你向搜索引擎發(fā)出的一個指令,是讓搜索引擎幫助你查找相關信息的命令,它可以是一個字,也可以是一個詞、一句話、一個英字母、英文單詞、一個數(shù)字、一個符號等任何可以在搜索框中輸入的信息。...
什么樣的網(wǎng)站才是一個合格的SEO網(wǎng)站?
在講網(wǎng)站之前還是來介紹一下什么是網(wǎng)站,因為這里的學員還有很多SEO初學者,網(wǎng)站就好比是我們在某個商場、某個小區(qū)開的一個店鋪,你做生意肯定是有一個店鋪的對吧,那么網(wǎng)站就是一個互聯(lián)網(wǎng)上的店鋪,是一個虛擬的...