這篇文章主要講解了“禁止搜索引擎收錄網(wǎng)站內容的方法有哪些”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“禁止搜索引擎收錄網(wǎng)站內容的方法有哪些”吧!
成都創(chuàng)新互聯(lián)是一家專注于成都網(wǎng)站設計、成都網(wǎng)站建設與策劃設計,老城網(wǎng)站建設哪家好?成都創(chuàng)新互聯(lián)做網(wǎng)站,專注于網(wǎng)站建設十年,網(wǎng)設計領域的專業(yè)建站公司;建站業(yè)務涵蓋:老城等地區(qū)。老城做網(wǎng)站價格咨詢:028-86922220第一種、robots.txt方法
搜索引擎默認的遵守robots.txt協(xié)議,創(chuàng)建robots.txt文本文件放至網(wǎng)站根目錄下,編輯代碼如下:
User-agent: *
Disallow: /
通過以上代碼,即可告訴搜索引擎不要抓取采取收錄本網(wǎng)站,注意慎用如上代碼:這將禁止所有搜索引擎訪問網(wǎng)站的任何部分。
如何只禁止百度搜索引擎收錄抓取網(wǎng)頁
1、編輯robots.txt文件,設計標記為:
User-agent: Baiduspider
Disallow: /
以上robots文件將實現(xiàn)禁止所有來自百度的抓取。
這里說一下百度的user-agent,Baiduspider的user-agent是什么?
百度各個產品使用不同的user-agent:
產品名稱 對應user-agent
無線搜索 Baiduspider
圖片搜索 Baiduspider-image
視頻搜索 Baiduspider-video
新聞搜索 Baiduspider-news
百度搜藏 Baiduspider-favo
百度聯(lián)盟 Baiduspider-cpro
商務搜索 Baiduspider-ads
網(wǎng)頁以及其他搜索 Baiduspider
你可以根據(jù)各產品不同的user-agent設置不同的抓取規(guī)則,以下robots實現(xiàn)禁止所有來自百度的抓取但允許圖片搜索抓取/image/目錄:
User-agent: Baiduspider
Disallow: /
User-agent: Baiduspider-image
Allow: /image/
請注意:Baiduspider-cpro和Baiduspider-ads抓取的網(wǎng)頁并不會建入索引,只是執(zhí)行與客戶約定的操作,所以不遵守robots協(xié)議,這個就需要和百度的人聯(lián)系才能解決了。
如何只禁止Google搜索引擎收錄抓取網(wǎng)頁,方法如下:
編輯robots.txt文件,設計標記為:
User-agent: googlebot
Disallow: /
編輯robots.txt文件
搜索引擎默認的遵守robots.txt協(xié)議
robots.txt文件放在網(wǎng)站根目錄下。
舉例來說,當搜索引擎訪問一個網(wǎng)站時,首先會檢查該網(wǎng)站根目錄中是否存在robots.txt這個文件,如果搜索引擎找到這個文件,它就會根據(jù)這個文件里的內容,來確定它抓取的權限的范圍。
User-agent:
該項的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多條User-agent記錄說明有多個robot會受到該協(xié)議的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則該協(xié)議對任何機器人均有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。
Disallow:
該項的值用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開頭的URL均不會被robot訪問到。例如”Disallow:/help”對/help.html 和/help/index.html都不允許搜索引擎訪問,而”Disallow:/help/”則允許robot訪問/help.html,而不能訪問/help/index.html。任何一條Disallow記錄為空,說明該網(wǎng)站的所有部分都允許被訪問,在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robots.txt”是一個空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。
下面舉幾個robots.txt用法的例子:
User-agent: *
Disallow: /
禁止所有搜索引擎訪問網(wǎng)站的所有部分
User-agent: Baiduspider
Disallow: /
禁止百度收錄全站
User-agent: Googlebot
Disallow: /
禁止Google收錄全站
User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /
禁止除Google外的一切搜索引擎收錄全站
User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /
禁止除百度外的一切搜索引擎收錄全站
User-agent: *
Disallow: /css/
Disallow: /admin/
禁止所有搜索引擎訪問某個目錄
(例如禁止根目錄下的admin和css)
第二種、網(wǎng)頁代碼方法
在網(wǎng)站首頁代碼
與之間,加入代碼,此標記禁止搜索引擎抓取網(wǎng)站并顯示網(wǎng)頁快照。另外當我們的需求很怪異的時候,比如下面這幾種情況:
1. 網(wǎng)站已經加了robots.txt,還能在百度搜索出來?
因為搜索引擎索引數(shù)據(jù)庫的更新需要時間。雖然Baiduspider已經停止訪問您網(wǎng)站上的網(wǎng)頁,但百度搜索引擎數(shù)據(jù)庫中已經建立的網(wǎng)頁索引信息,可能需要數(shù)月時間才會清除。另外也請檢查您的robots配置是否正確。如果您的拒絕被收錄需求非常急迫,也可以通過投訴平臺反饋請求處理。
2. 希望網(wǎng)站內容被百度索引但不被保存快照,我該怎么做?
Baiduspider遵守互聯(lián)網(wǎng)meta robots協(xié)議。您可以利用網(wǎng)頁meta的設置,使百度顯示只對該網(wǎng)頁建索引,但并不在搜索結果中顯示該網(wǎng)頁的快照。和robots的更新一樣,因為搜索引擎索引數(shù)據(jù)庫的更新需要時間,所以雖然您已經在網(wǎng)頁中通過meta禁止了百度在搜索結果中顯示該網(wǎng)頁的快照,但百度搜索引擎數(shù)據(jù)庫中如果已經建立了網(wǎng)頁索引信息,可能需要二至四周才會在線上生效。
希望被百度索引,但是不保存網(wǎng)站快照,如下代碼解決:
如果要禁止所有的搜索引擎保存你網(wǎng)頁的快照,那么代碼就是下面的:
常用的一些代碼組合:
:可以抓取本頁,而且可以順著本頁繼續(xù)索引別的鏈接
:不許抓取本頁,但是可以順著本頁抓取索引別的鏈接
:可以抓取本頁,但是不許順著本頁抓取索引別的鏈接
:不許抓取本頁,也不許順著本頁抓取索引別的鏈接
感謝各位的閱讀,以上就是“禁止搜索引擎收錄網(wǎng)站內容的方法有哪些”的內容了,經過本文的學習后,相信大家對禁止搜索引擎收錄網(wǎng)站內容的方法有哪些這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是創(chuàng)新互聯(lián)網(wǎng)站建設公司,,小編將為大家推送更多相關知識點的文章,歡迎關注!