99精品久久久久久久I国产精品都在这里I天天草avI天堂av网在线I国产亚洲久久I国产精品va最新国产精品视频I久久国产精品偷I国产成人99av超碰超爽

首頁 > 新聞 > 知識賦能

搜索引擎支持哪些Robots Meta標簽

2019-10-18 4631
分享至:

      搜索引擎支持nofollow和noarchive。

  禁止搜索引擎收錄的方法

  1. 什么是robots.txt文件?搜索引擎使用spider程序自動訪問互聯網上的網頁并獲取網頁信息。spider在訪問一個網站時,會首先會檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

  請注意,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。

  2. robots.txt文件放在哪里?robots.txt文件應該放置在網站根目錄下。舉例來說,當spider訪問一個網站(比如 http://www.abc.com)時,首先會檢查該網站中是否存在http://www.abc.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

  網站 URL 相應的 robots.txt的 URL

  http://www.w3.org/ http://www.w3.org/robots.txt

  http://www.w3.org:80/ http://www.w3.org:80/robots.txt

  http://www.w3.org:1234/ http://www.w3.org:1234/robots.txt

  http://w3.org/ http://w3.org/robots.txt

  3. 我在robots.txt中設置了禁止搜索引擎跟收錄我網站的內容,為何還出現在搜索引擎跟搜索結果中?如果其他網站鏈接了您robots.txt文件中設置的禁止收錄的網頁,那么這些網頁仍然可能會出現在搜索引擎跟的搜索結果中,但您的網頁上的內容不會被抓取、建入索引和顯示,搜索引擎跟搜索結果中展示的僅是其他網站對您相關網頁的描述。

  4. 禁止搜索引擎跟蹤網頁的鏈接,而只對網頁建索引如果您不想搜索引擎追蹤此網頁上的鏈接,且不傳遞鏈接的權重,請將此元標記置入網頁的 部分:

  如果您不想搜索引擎跟追蹤某一條特定鏈接,搜索引擎跟還支持更精確的控制,請將此標記直接寫在某條鏈接上:sign in

  要允許其他搜索引擎跟蹤,但僅防止搜索引擎跟跟蹤您網頁的鏈接,請將此元標記置入網頁的 部分:

  5. 禁止搜索引擎在搜索結果中顯示網頁快照,而只對網頁建索引要防止所有搜索引擎顯示您網站的快照,請將此元標記置入網頁的部分:

  要允許其他搜索引擎顯示快照,但僅防止搜索引擎跟顯示,請使用以下標記:

  注:此標記只是禁止搜索引擎跟顯示該網頁的快照,搜索引擎跟會繼續為網頁建索引,并在搜索結果中顯示網頁摘要。

  6. 我想禁止百度圖片搜索收錄某些圖片,該如何設置?禁止Baiduspider抓取網站上所有圖片、禁止或允許Baiduspider抓取網站上的某種特定格式的圖片文件可以通過設置robots實現,請參考“robots.txt文件用法舉例”中的例10、11、12。

  7. robots.txt文件的格式"robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結束符),每一條記錄的格式如下所示:":"

  在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細情況如下:

  User-agent:

  該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受 到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效, 在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

  Disallow:

  該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被 robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問 /help/index.html。"Disallow:"說明允許robot訪問該網站的所有url,在"/robots.txt"文件中,至少要有一 條Disallow記錄。如果"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網站都是開放的。

  Allow:

  該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭的URL 是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個網站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現允許訪問一部分網頁 同時禁止訪問其它所有URL的功能。

  使用"*"and"$":

  Baiduspider支持使用通配符"*"和"$"來模糊匹配url。

  "$" 匹配行結束符。

  "*" 匹配0或多個任意字符。

  8. URL匹配舉例Allow或Disallow的值 URL 匹配結果

  /tmp /tmp yes

  /tmp /tmp.html yes

  /tmp /tmp/a.html yes

  /tmp /tmp no

  /tmp /tmphoho no

  /Hello* /Hello.html yes

  /He*lo /Hello,lolo yes

  /Heap*lo /Hello,lolo no

  html$ /tmpa.html yes

  /a.html$ /a.html yes

  htm$ /a.html no

  9. robots.txt文件用法舉例例1. 禁止所有搜索引擎訪問網站的任何部分

  下載該robots.txt文件 User-agent: *

  Disallow: /

  例2. 允許所有的robot訪問

  (或者也可以建一個空文件 "/robots.txt") User-agent: *

  Allow: /

  例3. 僅禁止Baiduspider訪問您的網站 User-agent: Baiduspider

  Disallow: /

  例4. 僅允許Baiduspider訪問您的網站 User-agent: Baiduspider

  Allow: /

  User-agent: *

  Disallow: /

  例5. 僅允許Baiduspider以及Googlebot訪問 User-agent: Baiduspider

  Allow: /

  User-agent: Googlebot

  Allow: /

  User-agent: *

  Disallow: /

  例6. 禁止spider訪問特定目錄

  在這個例子中,該網站有三個目錄對搜索引擎的訪問做了限制,即robot不會訪問這三個目錄。需要注意的是對每一個目錄必須分開聲明,而不能寫成 "Disallow: /cgi-bin/ /tmp/"。 User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

  例7. 允許訪問特定目錄中的部分url User-agent: *

  Allow: /cgi-bin/see

  Allow: /tmp/hi

  Allow: /~joe/look

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

  例8. 使用"*"限制訪問url

  禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。 User-agent: *

  Disallow: /cgi-bin/*.htm

  例9. 使用"$"限制訪問url

  僅允許訪問以".htm"為后綴的URL。 User-agent: *

  Allow: /*.htm$

  Disallow: /

  例10. 禁止訪問網站中所有的動態頁面 User-agent: *

  Disallow: /*?*

  例11. 禁止Baiduspider抓取網站上所有圖片

  僅允許抓取網頁,禁止抓取任何圖片。 User-agent: Baiduspider

  Disallow: /*.jpg$

  Disallow: /*.jpeg$

  Disallow: /*.gif$

  Disallow: /*.png$

  Disallow: /*.bmp$

  例12. 僅允許Baiduspider抓取網頁和.gif格式圖片

  允許抓取網頁和gif格式圖片,不允許抓取其他格式圖片 User-agent: Baiduspider

  Allow: /*.gif$

  Disallow: /*.jpg$

  Disallow: /*.jpeg$

  Disallow: /*.png$

  Disallow: /*.bmp$

  例13. 僅禁止Baiduspider抓取.jpg格式圖片 User-agent: Baiduspider

  Disallow: /*.jpg$

來源聲明:

本文章系尚品中國編輯原創或采編整理,如需轉載請注明來自尚品中國。以上內容部分(包含圖片、文字)來源于網絡,如有侵權,請及時與本站聯系(010-60259772)。

立即預約專屬顧問 開啟數字化轉型之旅!

10年+資深項目經理1V1服務 | 行業定制化方案 | 精準報價體系
獲取策劃方案
立即預約專屬顧問 開啟數字化轉型之旅!

咨詢我們,獲得專業的服務和報價

聯系我們,免費獲取項目方案及報價,或只是聊一聊您的項目? 在收到您的需求留言后我們將由專業人員于24小時內與您取得聯系,請您保持電話暢通!

  • 科研院所解決方案
  • 外貿出海解決方案
  • 協會學會解決方案
  • 集團上市公司解決方案
  • 生物醫藥解決方案
  • 制造業解決方案
  • 高校教育解決方案
  • 信創網站改造解決方案
更多服務咨詢,請聯系尚品

010-60259772

您的姓名 *
您的電話 *
您的郵箱
公司名稱 *
主站蜘蛛池模板: 999成人| 色婷婷电影 | 2020天天干天天操 | 国产精品成人av久久 | av丝袜在线 | 黄色片网站av | 久艹在线免费观看 | 亚洲视频 在线观看 | 日本不卡123 | 久久久亚洲影院 | 国产视频丨精品|在线观看 国产精品久久久久久久久久久久午夜 | 亚洲女在线 | 九七视频在线 | 日韩久久激情 | 天天射天天爽 | 丁香综合激情 | 特级黄色一级 | 91av综合 | av高清网站在线观看 | 在线观看的黄色 | 国产精品 亚洲精品 | 久久久精品欧美一区二区免费 | 91九色性视频 | 国产香蕉视频在线播放 | 视频直播国产精品 | 天天伊人网 | 人人爱人人添 | 婷婷六月综合亚洲 | 婷婷丁香九月 | 亚洲免费a| 午夜精选视频 | 久久成人久久 | 国产精品专区在线观看 | 婷香五月| 国产99久久九九精品免费 | 亚洲欧美日本一区二区三区 | 五月婷网站 | 97涩涩视频| 美女视频免费一区二区 | 在线观看岛国av | 久久高清| 99精品视频在线看 | 久久综合中文色婷婷 | av一区二区在线观看中文字幕 | 在线a亚洲视频播放在线观看 | 国产在线精品区 | 色婷婷国产精品一区在线观看 | 久久免费视频播放 | av高清免费在线 | 极品久久久久久久 | 免费a级毛片在线看 | 99精品视频免费全部在线 | 欧洲精品视频一区二区 | 日韩在线观看网址 | 狠狠色免费 | 免费精品视频在线观看 | 亚洲国产三级在线观看 | 免费在线观看av | 91爱爱免费观看 | 亚洲成人精品影院 | 久久人人97超碰国产公开结果 | 在线国产精品视频 | 天天摸天天干天天操天天射 | 亚洲精品一区二区三区在线观看 | 午夜精品久久久久 | 国产精品大片 | 国产成人久久精品 | 国产精品美女视频网站 | 亚洲一级久久 | 天天激情天天干 | 超碰激情在线 | 成人网大片 | 中文在线字幕观看电影 | 最新超碰在线 | 国产成人在线综合 | 插插插色综合 | 久久久久女人精品毛片九一 | 美女免费网站 | 精品国产免费人成在线观看 | 久久婷婷久久 | 免费在线看v | 99久久婷婷国产一区二区三区 | 久久精品视频网 | 亚洲精品视频国产 | 69成人在线| 日韩三级精品 | 国内精品久久久久久久久 | 久久免费一级片 | 欧美日韩视频一区二区三区 | av丝袜在线 | 国产综合婷婷 | 亚洲精品国久久99热 | 在线网址你懂得 | 狠狠操精品 | www.大网伊人 | 成人午夜黄色影院 | 色婷婷丁香 | 国产人在线成免费视频 | 超碰99人人|