导航:首页 > 网站知识 > 网站robots在哪里做

网站robots在哪里做

发布时间:2022-06-21 12:38:30

A. robots是什么以及如何正确建立robots文件

robots是什么?
robots是一个协议,是建立在网站根目录下的一个以(robots.txt)结尾的文本文件,对搜索引擎蜘蛛的一种限制指令。是蜘蛛程序爬行网站第一个要访问抓取的页面,网站可以通过robots协议来告诉搜索引擎蜘蛛程序哪些页面可以抓取,哪些页面不可以抓取。

robots协议用来告诉搜索引擎哪些页面能被抓取,哪些页面是不能被抓取的,我们通常用 robots来屏蔽网站的一些垃圾页面、重复页面、死链接通、动态和静态多路径的同一页面。这么做的好处是可以节省一部分的服务器带宽,同时也方便蜘蛛程序更好的来抓取网站内容。其实robots就像一个指路标一样,引导着蜘蛛程序爬取网站页面。

robots符号介绍
首先我们先来认识一下书写robots时常用到的几个字符
User-agent:写义搜索引擎类型,这里的首字母要大写U,结尾冒号:后要加一个空格键,如 User-agent:* 不带空格,User-agent: * 带空格的。
* 这里的星号是一个通配符,匹配0或多个任意字符
$ 是一个结束符
Disallow:表示不希望被访问的目录或URL
Allow:表示希望被访问的目录或URL
robots的确定写法
写法一:禁止所有搜索引擎来抓取网站任何页面
User-agent: *(此处*号也可以写成禁止某个蜘蛛抓取,例如网络的 User-agent: Baispider)
Disallow: /
写法二:允许所有搜索引擎抓取网站任何页面
User-agent: *
Allow: /
当然如果允许的话也可以写个空的robots.txt放网站根目录
其它写法举例:
User-agent: * 代表所有搜索引擎
Disallow: /abc/ 表示禁止抓取abc目录下的目录
Disallow: /abc/*.html 表示禁止抓取此目录下所有以 .html为后缀的URL包含子目录
Disallow: /*?*禁止抓取所有带?问号的URL
Disallow: /*jpg$ 禁止所有以.jpg结尾格式的图片
Disallow: /ab 禁止抓取所有以ab 开头的文件
Disallow: /ab/a.html 禁止抓取ab文件夹下面的a.html 文件
Allow: /ABC/ 表示允许抓取abc目录下的目录

网络robots的写法

淘宝robots的写法

最后附上我自己网站robots的写法

好了就先举例这些,最后让提醒各位站长,慎重写robots协议,确保网站上线之前解决所有问题后,建立robots.txt文本到根目录。
85、Mr宋 94-80 作业

B. 什么网站可以生成robots.txt

robot.txt可以自己做,也可以用软件生成,然后上传到网站根目录的,是一个给抓取蜘蛛看的关于你网站哪些内容可以看哪些不可以看的文件,一般来说我是自己写,我之前用软件(sitemapX)做sitemap文件的时候是可以生成robots文件的~还有一些查询网站都可以自助生成的~~

C. 如何配置网站Robots.txt拜托了各位 谢谢

网站要设置robots.txt文件,我们就必需先了解什么是robots.txt?robots.txt是一个协议,而不是一个命令。robots.txt文件是搜索引擎来到一个网站必先看的文件,它是用来告诉搜索引擎在这个网站上什么可以看,什么不可以看。robots.txt文件对我们做seo的来说是非常有好处的,所以一个seo出色的网站在这些细节上做的非常到位,许多大型的网站都有设置robots.txt协议。比如:http://www.bjjmall.com

记得采纳啊

D. robots.txt应放在网站的哪里

您好楼主:
robots.txt是要放到根目录下面的。
所谓的根目录就是你的网站程序所在的那个目录,一般的根目录貌似都是个叫WEB或者www文件夹
robots.txt文件必须驻留在域的根目录,并且必须命名为“robots.txt”。
位于子目录中的robots.txt文件无效,因为漫游器只在域的根目录这个文件。
例如,http://www..com/robots.txt是有效位置。
但是,http://www..com/mysite/robots.txt不是。
如果您没有访问域的根目录,可以使用限制访问robots元标记。
【相关阅读:http://ke..com/view/9274458.htm】

E. 网站robots.txt如何设置吗

你可以通过FTP找到robots. txt文件,下载到本地修改后再上传。
主要是屏蔽不让搜索引擎抓取的文件夹目录,你可以通过FTP查看所有文件夹对照网站栏目来设置,如果还不知道如何操作可以,参考米拓建站官网的robots.txt文件。

F. 我是一名网络营销新手,不知道网站做好了以后怎么做能利于搜索引擎抓取,还有robots是什么

网上有很多在线生成robots的工具,找一下就行。robots就是一个规则文件,就像是法律,它告诉搜索引擎那些东西可以收录,那些不可以收录。另外它还起到给搜索引擎指引的功能,指引搜索引擎的收录工作。
想有利于搜索引擎收录方法有几方面:首先就是网站程序本身,静态网页是最好收录的,就是html这样的,其次是伪静态,最差的是动态页面。另外要多在其他地方进行宣传推广,内容经常更新,更新的内容应以原创为主。其他的你可以多在网上看一些这方面的资料,我就不多说了。

G. #网站收录# 为什么我的站只收录了两页提示说是robots设置要如何设置

进入网站把根目录下robots.txt文件删除掉就OK了
想知道具体设置规则,网络下就OK了,网络里面有介绍

H. 如何书写网站的robots文件

robots 是站点与 spider 沟通的重要渠道,站点通过 robots 文件声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用 robots.txt 文件。如果您希望搜索引擎收录网站上所有内容,请勿建立 robots.txt 文件。

robots 文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以 CR,CR/NL, or NL 作为结束符),每一条记录的格式如下所示:<field>:<optional space><value><optionalspace>

在该文件中可以使用#进行注解,具体使用方法和 UNIX 中的惯例一样。该文件中的记录通常以一行或多行 User-agent 开始,后面加上若干 Disallow 和 Allow 行 , 详细情况如下:

I. 我是用wordpress做的网站,在哪修改robots.txt谢谢 !急!!

自己用记事本建一个 robots.txt
内容按情况写。
然后上传到网站根目录就可以了。
都是这样做的,wordpress 没有自带 robots.txt

J. 网站中,robots屏蔽应该在哪屏蔽呢屏蔽的是哪些内容

robots是网站的和搜索引擎的一个文件协议,你要做的话要把文件写好了上传的网站的根目录,然后再你网站的域名后面加上robots。txt就能查看到了,那些内容就要看你网的那些内容是不想搜索引擎抓取的就屏蔽那些内容。比如:一般网站都会屏蔽用户的登陆页面或者是用户的资料页面,或者是网站后台的登陆页面,或者是网站的死链接页面等很多不想让搜索引擎抓取的页面。希望我的回答能帮到你。龙术SEO

阅读全文

与网站robots在哪里做相关的资料

热点内容
网络共享中心没有网卡 浏览:544
电脑无法检测到网络代理 浏览:1401
笔记本电脑一天会用多少流量 浏览:687
苹果电脑整机转移新机 浏览:1397
突然无法连接工作网络 浏览:1149
联通网络怎么设置才好 浏览:1255
小区网络电脑怎么连接路由器 浏览:1130
p1108打印机网络共享 浏览:1233
怎么调节台式电脑护眼 浏览:784
深圳天虹苹果电脑 浏览:1019
网络总是异常断开 浏览:639
中级配置台式电脑 浏览:1085
中国网络安全的战士 浏览:656
同志网站在哪里 浏览:1447
版观看完整完结免费手机在线 浏览:1479
怎样切换默认数据网络设置 浏览:1136
肯德基无线网无法访问网络 浏览:1325
光纤猫怎么连接不上网络 浏览:1561
神武3手游网络连接 浏览:989
局网打印机网络共享 浏览:1020