A. 怎么让我的网站在搜索引擎中搜不到。在互联网上建了一个服务器公司内部用的不想让搜索引擎搜到。
创建一个文本内容是
User-agent: *
Disallow: /
文本名字是:
robots.txt
放到你网站的根目录下就可以了,所有的搜索引擎都不会收录你的网站
B. 怎么让百度搜索不到与自己相关的网页
如果这些搜索内容有侵犯到你的个人隐私,你可以致电相关网站客服,将情况说明,请求他们将相关内容删除,要不你个人是没有办法限制其他网友搜索内容的,除非你是黑客,黑了他的网站。
C. 怎么让搜索器搜索不到的指定网站
向网络、谷歌等搜索器提交一份据绝搜索的协议。
D. 怎么让百度搜索不到自己的网站
可以设置robots.txt文件来禁止网络蜘蛛抓取网站信息。
写法:
User-agent: *
Disallow:
或者
User-agent: *
Allow: /
如果需要禁止某一个搜索引擎抓取网站的话,如网络,可以作一下写法:
User-agent: Baispider
Disallow: /
如果禁止所有引擎抓取,写法:
User-agent: *
Disallow: /
注意:robots.txt文件是放在网站根目录的。
写好上转后,可以测试一下:
如:你的网址/robots.txt
E. 如何让我的网站在搜索引擎上搜索不到
Robots.txt 是存放在站点根目录下的一个纯文本文件。
虽然它的设置很简单,但是作用却很强大。它可以指定搜索引擎蜘蛛只抓取指定的内容,或者是禁止搜索引擎蜘蛛抓取网站的部分或全部内容。
使用方法:
Robots.txt 文件应该放在网站根目录下,并且该文件是可以通过互联网进行访问的。
例如:如果您的网站地址是 http://www..com/那么,该文件必须能够通过 http://www..com/robots.txt 打开并看到里面的内容。
格式:
User-agent:
用于描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多条User-agent记录说明有多个搜索引擎蜘蛛会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"这样的记录只能有一条。
Disallow:
用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到。
举例:
例一:"Disallow:/help"是指/help.html 和/help/index.html都不允许搜索引擎蜘蛛抓取。
例二:"Disallow:/help/"是指允许搜索引擎蜘蛛抓取/help.html,而不能抓取/help/index.html。
例三:Disallow记录为空说明该网站的所有页面都允许被搜索引擎抓取,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。
#:Robots.txt 协议中的注释符。
综合例子 :
例一:通过"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目录,以及 "/tmp/"目录和 /foo.html 文件,设置方法如下:
User-agent: *
Disallow: /bin/cgi/
Disallow: /tmp/
Disallow: /foo.html
例二:通过"/robots.txt"只允许某个搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允许名为"slurp"的搜索引擎蜘蛛抓取,而拒绝其他的搜索引擎蜘蛛抓取 "/cgi/" 目录下的内容,设置方法如下:
User-agent: *
Disallow: /cgi/
User-agent: slurp
Disallow:
例三:禁止任何搜索引擎抓取我的网站,设置方法如下:
User-agent: *
Disallow: /
例四:只禁止某个搜索引擎抓取我的网站如:只禁止名为“slurp”的搜索引擎蜘蛛抓取,设置方法如下:
User-agent: slurp
Disallow: /
F. 怎么让自己的搜索引擎搜索不到某网站
加入屏蔽网
G. 怎样让某些网站在百度上搜索不到
如果您是这些网站的管理员,您可以:
·删除这些页面。在几周之内,这些内容会自动从网络消失。
·如果您希望这些页面马上消失,请在删除它们之后,用网站联系人信箱将要求发给[email protected],经网络核实后,这些页面会很快消失。
·如果您不希望自己的网站被网络抓取,只需给网站设置一个 robots 协议,详见 禁止搜索引擎收录的方法。
如果您不是这些网站的管理员,您可以:
·先联系这些网站的管理员,要求他们删除相关网页。只要原网站删除,这些内容会在几周内从网络自动消失。
·如果您希望这些页面马上消失,请先确认该网站已删除指定网页,然后提供身份证明、网站权属证明及详细侵权情况资料,网络在收到上述法律文件后,将会尽快移除被控侵权内容;或者可以要求侵权网站管理员用其网站联系人信箱给 [email protected]发送删除请求,网络在确认后,这些页面会很快消失。
H. 怎样不让百度搜到我的网站!
什么是spider?
spider是网络搜索引擎的一个自动程序。它的作用是访问互联网上的html网页,建立索引数据库,使用户能在网络搜索引擎中搜索到您网站的网页。
spider对一个网站服务器造成的访问压力如何?
spider会自动根据服务器的负载能力调节访问密度。在连续访问一段时间后,spider会暂停一会,以防止增大服务器的访问压力。所以在一般情况下,spider对您网站的服务器不会造成过大压力。
为什么spider不停的抓取我的网站?
对于您网站上新产生的或者持续更新的页面,spider会持续抓取。此外,您也可以检查网站访问日志中spider的访问是否正常,以防止有人恶意冒充spider来频繁抓取您的网站。 如果您发现spider非正常抓取您的网站,请反馈至[email protected],并请尽量给出spider对贵站的访问日志,以便于我们跟踪处理。
我不想我的网站被spider访问,我该怎么做?
spider遵守互联网robots协议。您可以利用robots.txt文件完全禁止spider访问您的网站,或者禁止spider访问您网站上的部分文件。 注意:禁止spider访问您的网站,将使您的网站上的网页,在网络搜索引擎以及所有网络提供搜索引擎服务的搜索引擎中无法被搜索到。
关于robots.txt的写作方法,请参看我们的介绍:robots.txt写作方法
为什么我的网站已经加了robots.txt,还能在网络搜索出来?
因为搜索引擎索引数据库的更新需要时间。虽然spider已经停止访问您网站上的网页,但网络搜索引擎数据库中已经建立的网页索引信息,可能需要二至四周才会清除。 另外也请检查您的robots配置是否正确。
我希望我的网站内容被网络索引但不被保存快照,我该怎么做?
spider遵守互联网meta robots协议。您可以利用网页meta的设置,使网络显示只对该网页建索引,但并不在搜索结果中显示该网页的快照。
和robots的更新一样,因为搜索引擎索引数据库的更新需要时间,所以虽然您已经在网页中通过meta禁止了网络在搜索结果中显示该网页的快照,但网络搜索引擎数据库中如果已经建立了网页索引信息,可能需要二至四周才会在线上生效。
网络蜘蛛在robots.txt中的名字是什么?
“Baispider” 首字母B大写,其余为小写。
spider多长时间之后会重新抓取我的网页?
网络搜索引擎每周更新,网页视重要性有不同的更新率,频率在几天至一月之间,spider会重新访问和更新一个网页。
spider抓取造成的带宽堵塞?
spider的正常抓取并不会造成您网站的带宽堵塞,造成此现象可能是由于有人冒充的spider恶意抓取。如果您发现有名为Baispider的agent抓取并且造成带宽堵塞,请尽快和我们联系。您可以将信息反馈至[email protected],如果能够提供您网站该时段的访问日志将更加有利于我们的分析。