如何制作網(wǎng)站robots.txt文件?當(dāng)蜘蛛進(jìn)入一個(gè)網(wǎng)站,首先看的就是robots.txt文件了,如果你不懂這個(gè),就會(huì)很麻煩,如果由于不懂robots文件,是很容易導(dǎo)致網(wǎng)站不被搜索引擎爬行,那么做網(wǎng)站就沒有任何的意義了。因此我們真的有必要來(lái)了解下,怎么制作網(wǎng)站robots文件了。SEO基本技巧有哪些?
那么,網(wǎng)站robots.txt文件該怎么編寫呢?請(qǐng)大家看下面的編寫方法:
User-agent:制定規(guī)則適用于哪個(gè)蜘蛛。
“*”代表所有搜索引擎。針對(duì)某個(gè)搜索引擎,則寫該搜索引擎蜘蛛名稱。在國(guó)內(nèi),99%的企業(yè)網(wǎng)站和個(gè)人,都非常的重視百度搜索引擎了,因此都是不會(huì)選擇屏蔽百度搜索引起了。
這是我寫得robots.txt文件
User-agent:Baiduspider 百度蜘蛛
User-agent:Googlebot-Mobile 谷歌蜘蛛
User-agent:360Spider 360蜘蛛
User-agent:Sosospider SOSO蜘蛛
User-agent:Sogou News Spider 搜狗蜘蛛
Robots文件中的特殊符號(hào)的作用和意思:
*表示所有搜索引擎,用于指定蜘蛛使用;菜鳥怎么學(xué)好SEO優(yōu)化?
~表示以某字符串開頭;
$表示以某字符串結(jié)尾;
/表示當(dāng)前目錄下的所有內(nèi)容。
參數(shù)說(shuō)明:
User-agent 指定搜索引擎蜘蛛名稱;
Disallow要禁止抓取的內(nèi)容;
Allow允許抓取的內(nèi)容。
不同的網(wǎng)站,寫法也是不一樣的,希望可以幫到那些對(duì)robots.txt文件還不太了解的SEO新手朋友們。喜歡此文章,你就在下面回復(fù)下,毛毛萬(wàn)分感謝你。
聯(lián)系客服