被两个男摁住玩弄尿孔的视频,医院玩弄人妻1~12章,巜被部长玩弄的人妻》,东子一夜玩弄白洁7次,东子一夜玩弄白洁7次视频,公玩弄年轻人妻HD

全站搜索 客戶案例 新聞中心 未分類

網站SEO中robots文件的寫法需要注意哪些內容

技術服務 網站SEO 網站SEO4576

搜索引擎都有自己的“搜索機器人”(ROBOTS),并通過這些ROBOTS在網絡上沿著網頁上的鏈接(一般是http和src鏈接)不斷抓取資料建立自己的數據庫。今天就給大家講一講比較實用的SEO技巧之robots.txt文件。

網站所有者使用/robots.txt文件向網絡機器人提供有關其網站的說明; 這被稱為機器人排除協議

工作原理

機器人想要訪問網站,比如http://www.shzhengxiang.com。

在此之前,它首先檢查http://www.shzhengxiang.com/robots.txt,robots.txt文件信息。

存在:搜索機器人就會按照該文件中的內容來確定訪問的范圍

不存在:搜索機器人就沿著鏈接抓取。

首先,在我們寫robots之前,我們必須要知道,我們為什么要寫它,這才是問題的核心,千萬不要因為別人也寫了你就也去效仿。robots,人稱“君子協議”,是網站和搜索引擎之間的協議,搜索引擎在爬行到你網站時會第一時間爬行到這個文件,然后會根據你寫的協議進行爬行和抓取。

robots文件寫作步驟

在寫文件之前,我們需要有以下的權限,可以上傳文件到網站根目錄,因為robots是放在網站根目錄的。確認好我們有權限之后,先可以開始寫了。首先創建一個TXT文件,命名為robots.txt。

打開文件第一步要寫的就是User-agent:,這代表的是你需要什么搜索引擎抓取你的網站,例如User-agent:*,代表的需要所有搜索引擎、User-agent:Baiduspider,代表的百度可以抓。

那么怎么禁止所有搜索引擎抓取呢?這設計要后面的知識,這里先寫出來,但不進行解釋。User-agent:* Disallow:/。一般來說我們都是允許所有的抓取,如有特殊需要可以自己去斟酌。

在寫好User-agent之后就是寫具體的規則了,主要有兩種:一種是allow和disallow也就是允許和不允許的意思。這個大家都能理解,我們的網站資源有限,有些東西沒必要抓取的就是不用浪費帶寬,例如JS和CSS文件,還有出于安全考慮,網站后臺目錄也是不允許被抓取的。disallow寫法規則,禁止抓取某個目錄 disallow:/目錄/ 禁止抓取特定的文件 disallow:.php(.css .js) 禁止抓取圖片 disallow:.jpg(圖片格式)$。。。還有很多鐘用法。在這里我們說明的是。并不是寫的越多越好,要根據實際情況去寫。

常用關鍵字段

User-Agent: 以下規則適用的機器人(例如“Googlebot”等)

Disallow: 您希望阻止機器人訪問的頁面(根據需要,禁止多行)

Allow: 不需要阻止機器人訪問的頁面

Noindex: 希望搜索引擎阻止和不要索引的頁面(如果先前已建立索引,則將其解除索引)

細節注意事項

機器人可以忽略你的/robots.txt。特別是在網絡上掃描安全漏洞的惡意軟件機器人以及垃圾郵件發送者使用的電子郵件地址收集器將不予理睬。

/robots.txt文件是一個公開可用的文件。任何人都可以看到您不希望機器人使用的服務器部分。

robots.txt必須放置在一個站點的根目錄下(后面說),而且文件名必須全部小寫。

如果”robots.txt”是一個空文件,則對于所有的搜索引擎robot,該網站都是開放的。

第一個英文要大寫,冒號是英文狀態下,冒號后面有一個空格

如果“/”后面多了一個空格,則屏蔽整個網站

行前不能有空格,如 [空格][空格][空格] User-agent: *

禁止把命令放在一行,像這樣:User-agent: * Disallow:/

生效時間為幾天~幾個月

該文件放在那里

簡單說,只需要放置在web服務器頂級目錄中。

當機器人查找URL的“/robots.txt”文件時,它會從URL中剝離路徑組件(來自第一個單斜杠的所有內容),并將“/robots.txt”放在其位置。

例如,對于“ http://www.baidu.com/shop/index.html” ,它將刪除 /shop/index.html “,并將其替換為” /robots.txt “,最終將以“http://www.baidu.com/robots.txt”。

因此,需要將其放在Web服務器上的正確位置,以便生成該URL。通常,這是您放置網站主要“ index.html ”歡迎頁面的位置。究竟是什么,以及如何將文件放在那里,取決于Web服務器軟件。

注意:使用全文小寫作為文件名:“ robots.txt ”,而不是“ Robots.TXT。

最后就還有一個小技巧了,那就是寫入sitemap地址。我們都知道百度不會給小站開通sitemap權限,所以我們可以在這里寫上。一般我們在根目錄存放好sitemap,格式一般都是XML也有TXT的,寫法如下:Sitemap:http://www.jxfzseo.com/(網站名)sitemap.xml.

上一篇: 下一篇:

相關推薦

展開更多

zh_CNChinese
0

客官請稍后,玩命加載中!

欢迎光临: 连云港市| 武平县| 类乌齐县| 璧山县| 鹤壁市| 丰原市| 吴旗县| 渭源县| 扬州市| 安远县| 中牟县| 岑巩县| 奉贤区| 顺义区| 江口县| 开化县| 双鸭山市| 定襄县| 高邑县| 合江县| 瓦房店市| 中方县| 刚察县| 甘南县| 罗田县| 梧州市| 富顺县| 濉溪县| 衢州市| 公主岭市| 阿克陶县| 兴业县| 临沂市| 蒙城县| 崇仁县| 皋兰县| 会昌县| 巴东县| 兴安盟| 横峰县| 任丘市|