A. 怎麼讓我的網站在搜索引擎中搜不到。在互聯網上建了一個伺服器公司內部用的不想讓搜索引擎搜到。
創建一個文本內容是
User-agent: *
Disallow: /
文本名字是:
robots.txt
放到你網站的根目錄下就可以了,所有的搜索引擎都不會收錄你的網站
B. 怎麼讓百度搜索不到與自己相關的網頁
如果這些搜索內容有侵犯到你的個人隱私,你可以致電相關網站客服,將情況說明,請求他們將相關內容刪除,要不你個人是沒有辦法限制其他網友搜索內容的,除非你是黑客,黑了他的網站。
C. 怎麼讓搜索器搜索不到的指定網站
向網路、谷歌等搜索器提交一份據絕搜索的協議。
D. 怎麼讓百度搜索不到自己的網站
可以設置robots.txt文件來禁止網路蜘蛛抓取網站信息。
寫法:
User-agent: *
Disallow:
或者
User-agent: *
Allow: /
如果需要禁止某一個搜索引擎抓取網站的話,如網路,可以作一下寫法:
User-agent: Baispider
Disallow: /
如果禁止所有引擎抓取,寫法:
User-agent: *
Disallow: /
注意:robots.txt文件是放在網站根目錄的。
寫好上轉後,可以測試一下:
如:你的網址/robots.txt
E. 如何讓我的網站在搜索引擎上搜索不到
Robots.txt 是存放在站點根目錄下的一個純文本文件。
雖然它的設置很簡單,但是作用卻很強大。它可以指定搜索引擎蜘蛛只抓取指定的內容,或者是禁止搜索引擎蜘蛛抓取網站的部分或全部內容。
使用方法:
Robots.txt 文件應該放在網站根目錄下,並且該文件是可以通過互聯網進行訪問的。
例如:如果您的網站地址是 http://www..com/那麼,該文件必須能夠通過 http://www..com/robots.txt 打開並看到裡面的內容。
格式:
User-agent:
用於描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多條User-agent記錄說明有多個搜索引擎蜘蛛會受到該協議的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則該協議對任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"這樣的記錄只能有一條。
Disallow:
用於描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開頭的URL均不會被Robot訪問到。
舉例:
例一:"Disallow:/help"是指/help.html 和/help/index.html都不允許搜索引擎蜘蛛抓取。
例二:"Disallow:/help/"是指允許搜索引擎蜘蛛抓取/help.html,而不能抓取/help/index.html。
例三:Disallow記錄為空說明該網站的所有頁面都允許被搜索引擎抓取,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果"/robots.txt"是一個空文件,則對於所有的搜索引擎蜘蛛,該網站都是開放的可以被抓取的。
#:Robots.txt 協議中的注釋符。
綜合例子 :
例一:通過"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目錄,以及 "/tmp/"目錄和 /foo.html 文件,設置方法如下:
User-agent: *
Disallow: /bin/cgi/
Disallow: /tmp/
Disallow: /foo.html
例二:通過"/robots.txt"只允許某個搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允許名為"slurp"的搜索引擎蜘蛛抓取,而拒絕其他的搜索引擎蜘蛛抓取 "/cgi/" 目錄下的內容,設置方法如下:
User-agent: *
Disallow: /cgi/
User-agent: slurp
Disallow:
例三:禁止任何搜索引擎抓取我的網站,設置方法如下:
User-agent: *
Disallow: /
例四:只禁止某個搜索引擎抓取我的網站如:只禁止名為「slurp」的搜索引擎蜘蛛抓取,設置方法如下:
User-agent: slurp
Disallow: /
F. 怎麼讓自己的搜索引擎搜索不到某網站
加入屏蔽網
G. 怎樣讓某些網站在百度上搜索不到
如果您是這些網站的管理員,您可以:
·刪除這些頁面。在幾周之內,這些內容會自動從網路消失。
·如果您希望這些頁面馬上消失,請在刪除它們之後,用網站聯系人信箱將要求發給[email protected],經網路核實後,這些頁面會很快消失。
·如果您不希望自己的網站被網路抓取,只需給網站設置一個 robots 協議,詳見 禁止搜索引擎收錄的方法。
如果您不是這些網站的管理員,您可以:
·先聯系這些網站的管理員,要求他們刪除相關網頁。只要原網站刪除,這些內容會在幾周內從網路自動消失。
·如果您希望這些頁面馬上消失,請先確認該網站已刪除指定網頁,然後提供身份證明、網站權屬證明及詳細侵權情況資料,網路在收到上述法律文件後,將會盡快移除被控侵權內容;或者可以要求侵權網站管理員用其網站聯系人信箱給 [email protected]發送刪除請求,網路在確認後,這些頁面會很快消失。
H. 怎樣不讓百度搜到我的網站!
什麼是spider?
spider是網路搜索引擎的一個自動程序。它的作用是訪問互聯網上的html網頁,建立索引資料庫,使用戶能在網路搜索引擎中搜索到您網站的網頁。
spider對一個網站伺服器造成的訪問壓力如何?
spider會自動根據伺服器的負載能力調節訪問密度。在連續訪問一段時間後,spider會暫停一會,以防止增大伺服器的訪問壓力。所以在一般情況下,spider對您網站的伺服器不會造成過大壓力。
為什麼spider不停的抓取我的網站?
對於您網站上新產生的或者持續更新的頁面,spider會持續抓取。此外,您也可以檢查網站訪問日誌中spider的訪問是否正常,以防止有人惡意冒充spider來頻繁抓取您的網站。 如果您發現spider非正常抓取您的網站,請反饋至[email protected],並請盡量給出spider對貴站的訪問日誌,以便於我們跟蹤處理。
我不想我的網站被spider訪問,我該怎麼做?
spider遵守互聯網robots協議。您可以利用robots.txt文件完全禁止spider訪問您的網站,或者禁止spider訪問您網站上的部分文件。 注意:禁止spider訪問您的網站,將使您的網站上的網頁,在網路搜索引擎以及所有網路提供搜索引擎服務的搜索引擎中無法被搜索到。
關於robots.txt的寫作方法,請參看我們的介紹:robots.txt寫作方法
為什麼我的網站已經加了robots.txt,還能在網路搜索出來?
因為搜索引擎索引資料庫的更新需要時間。雖然spider已經停止訪問您網站上的網頁,但網路搜索引擎資料庫中已經建立的網頁索引信息,可能需要二至四周才會清除。 另外也請檢查您的robots配置是否正確。
我希望我的網站內容被網路索引但不被保存快照,我該怎麼做?
spider遵守互聯網meta robots協議。您可以利用網頁meta的設置,使網路顯示只對該網頁建索引,但並不在搜索結果中顯示該網頁的快照。
和robots的更新一樣,因為搜索引擎索引資料庫的更新需要時間,所以雖然您已經在網頁中通過meta禁止了網路在搜索結果中顯示該網頁的快照,但網路搜索引擎資料庫中如果已經建立了網頁索引信息,可能需要二至四周才會在線上生效。
網路蜘蛛在robots.txt中的名字是什麼?
「Baispider」 首字母B大寫,其餘為小寫。
spider多長時間之後會重新抓取我的網頁?
網路搜索引擎每周更新,網頁視重要性有不同的更新率,頻率在幾天至一月之間,spider會重新訪問和更新一個網頁。
spider抓取造成的帶寬堵塞?
spider的正常抓取並不會造成您網站的帶寬堵塞,造成此現象可能是由於有人冒充的spider惡意抓取。如果您發現有名為Baispider的agent抓取並且造成帶寬堵塞,請盡快和我們聯系。您可以將信息反饋至[email protected],如果能夠提供您網站該時段的訪問日誌將更加有利於我們的分析。