‘壹’ 网站日志怎么怎么分析
对于网站优化来说,搜索引擎日志分析是必不可少的一块,日志是发生在网站服务器上的所有事件的记录,包括用户访问记录,搜索引擎抓取记录,从日志里边可以分析访客趋势、地区趋势等,那么我们主要分析日志的什么数据呢?
每个搜索引擎的总体抓取量
明确的记录了每个搜索引擎的抓取量,我们都可以进行记录,使用DOS命令或者Linux命令都可以去实现的,当文章质量不变的情况下,蜘蛛抓取量越大,那么收录的就会越多,我们可以去看它的趋势。
‘贰’ 网站日志是什么如何分析网站日志
网站日志是记录web服务器接收处理请求以及运行时错误等各种原始信息的以·log结尾的文件,确切的讲,应该是服务器日志。网站日志最大的意义是记录网站运营中比如空间的运营情况,被访问请求的记录。
怎么分析网站日志?
登录“FTP”账号,链接到网站数据,找到网站日志文件夹。(注意:一般情况下,网站日志所在文件夹都是与网站文件同级文件夹,且带有log字样。只有少数情况下,网站日志文件夹在网站根目录下。)
打开文件夹,下载日志压缩文件!(下载方法很简单,只要选中文件直接拖到电脑桌面,然后左下方的本地浏览下载目录的文件上“右键—传输队列”即可!)
解压下载的日志文件,而后将解压后文件的后缀改为“txt”
新建一个excel表格,并打开!找到顶端工具栏的“数据”工具
点击“导入数据”,默认“直接打开数据文件”,再选择“选择数据源”。
选中解压后的txt文档,并打开!
默认“其他编码”
选择“分隔符号”,并“下一步”;
勾选所有选项,然后“下一步”;
默认“常规”,并“完成”;
如图,网站日志哥数据项之间全部分隔开来;
接下来只要保留自己需要的数据项即可。删除不需要的数据项!(如图,仅保留了数据分析需要的访客ip、访问文件、访问状态码以及访客名称四项数据。)
选中访客名称一整列,然后点击“开始”栏目的“筛选”工具
点击访客名称一列上方的三角下拉按钮;
取消“全选”,找到网络蜘蛛的访客名称,选中并“确定”;
我们就可以得到日志当天网络蜘蛛访问网站的所有数据。
最后,该数据保存到网站每日分析日志中。(注意:每日更新原创内容的网站一般在分析日志的时候还需要保留时间数据。)
‘叁’ 新手如何简单的分析网站日志
一、网站日志可以为我们做什么?
1、 可以分析爬虫抓取页面有效性(减少搜索引擎在一些噪音页面上:重复页面,低质量页面,空内容页面,404页面,不排名页面 的抓取频率);
2、排查网站页面中存在的404错误页面,500服务器错误等
3、页面重要内容是否被爬虫完整爬到并且快速遍历;
4、正确分辨蜘蛛爬虫
二、常见HTTP状态码解读
1、200代码,表示蜘蛛爬取正常
2、404代码,访问的这个链接是错误链接
3、301代码,永久重定向
4、302代码,表示临时重定向
5、304代码,客户端已经执行了GET,但文件未变化。
6、500代码,表示网站内部程序或服务器有错
接着,我列举一个网站日志的案例:
日志里的含义,可以大家看下网站日志中各个数据都代表什么意思,总之这个文件是记录的一天发生在网站上的一些行为。当我们拿到这么一个网站日志,我们就可以审视我们的日志,并且通过对日志文件分析解决网站存在的问题;
三、日志代码解读
从日志文件当中可以解读出两个部分内容:
1、搜索引擎抓取情况
从日志文件中,可以大家看到搜索引擎抓取了一些404页面及低质量重负页面(噪音行为)
备注:可以通过nslookup ip 识别蜘蛛的真假
/date-2016-01.html(低质量重负页面)
/author-1.html(低质量重负页面)
/downloads/(低质量页面)
/contact.html(死链接接),但这里有个问题,这个页面返回的状态码为200而不是404,但页面却跳转到404页面,从中可以发现服务器设置一定有问题;
所以,当我们有一些页面不希望他们抓取的时候,我们需要在robots中进行规范。规范robots一个重要的手段,就是robots.txt。爬虫纠偏,让爬虫花更多的精力放在我的详情页面上。
2、用户访问网站情况
关于用户网站访问情况, 主要分析用户访问网站行为轨迹及用户属性,大兵seo在这就不进行讲述
‘肆’ 如何查看及分析网站IIS日志文件
IIS查看分析网站日志需要找到日志目录,下面小编在Win10系统演示一下:
1、打开开始界面,点击左下角的设置图标,如下图所示
‘伍’ 网站日志怎么看啊
网站日志在哪里?
因为网站环境分为两种,一种windows服务器,一种是linux服务器,所以网站日志也有所不同。
我们所说的日志通常是指IIS日志,简单易懂。linux主机就是Apache日志,敲代码,比较难懂。
一般的虚拟主机都自带有网站日志下载,打开wwwlogos这里面每天会保存一周的日志。如果是独立服务器的话,由于开启的服务不同,就会有多种情况。
1、Nginx日志文件名称及路径介绍
nginx的log网站日志分为errorlog和accesslog
accesslog记录了用户在什么IP地址、什么时候访问的、用的什么操作系统、通过哪个浏览器、显示器分辨率是多少、访问了你网站的哪个页面,做什么操作,是否访问成功等等信息;
errorlog则是记录服务器错误日志。
2、Apache日志文件名称及路径介绍
Apache的网站日志分别是访问日志access_log(在Windows上是access.log)和错误日志error_log(在Windows上是error.log)。如果使用SSL服务的话,还可能存在ssl_error_log和ssl_access_log和ssl_request_log三种日志文件。
日志文件的路径根据安装方式不同位置也是不一样的,一般都是在Apache安装目录的logs子目录中,日志文件路径可根据实际安装情况在Apache的配置文件中进行查找。
将网站日志下载下来后,打开你会发现,内容跟代码一样,看不懂!
网站日志怎么查看?下面由.top域名给你解答
查看网站日志的方法有两种,第一种比较简单粗暴,用Excel打开网站日志文件,直接查看即可;第二种方式更加适合新手,通过专业的软件查看,将下载到本地的网站日志文件上传至软件中,软件会将重要的信息提取出来以供阅读。常见的网站日志分析软件有:光年日志分析工具、LogHao网站日志在线分析工具等。
‘陆’ 什么是网站日志分析需要分析哪些内容
网站日志是记录web服务器接收处理请求以及运行时错误等各种原始信息的以·log结尾的文件,确切的讲,应该是服务器日志。网站日志最大的意义是记录网站运营中比如空间的运营情况,被访问请求的记录。
怎么分析网站日志?
登录“FTP”账号,链接到网站数据,找到网站日志文件夹。(注意:一般情况下,网站日志所在文件夹都是与网站文件同级文件夹,且带有log字样。只有少数情况下,网站日志文件夹在网站根目录下。)
打开文件夹,下载日志压缩文件!(下载方法很简单,只要选中文件直接拖到电脑桌面,然后左下方的本地浏览下载目录的文件上“右键—传输队列”即可!)
解压下载的日志文件,而后将解压后文件的后缀改为“txt”
新建一个excel表格,并打开!找到顶端工具栏的“数据”工具
点击“导入数据”,默认“直接打开数据文件”,再选择“选择数据源”。
选中解压后的txt文档,并打开!
默认“其他编码“
选择“分隔符号”,并“下一步”;
勾选所有选项,然后“下一步”;
默认“常规”,并“完成”;
如图,网站日志哥数据项之间全部分隔开来;
接下来只要保留自己需要的数据项即可。删除不需要的数据项!(如图,仅保留了数据分析需要的访客ip、访问文件、访问状态码以及访客名称四项数据。)
选中访客名称一整列,然后点击“开始”栏目的“筛选”工具
点击访客名称一列上方的三角下拉按钮;
取消“全选”,找到网络蜘蛛的访客名称,选中并“确定”;
我们就可以得到日志当天网络蜘蛛访问网站的所有数据。
最后,该数据保存到网站每日分析日志中。(注意:每日更新原创内容的网站一般在分析日志的时候还需要保留时间数据。)
‘柒’ 如何进行网站日志分析
1、下载网站日志:
流程如下:主机独立控制面板——网站情报系统分析——网站日志——下载WebLog日志——右键点击查看,链接另存为
在主机独立控制面板中,找到网站情报系统分析板块,里面就能看到网站日志了,点击下载WebLog日志,能看到最近几天的网站日志,但是点击查看进去,会发现是一堆看不懂的代码,没有关系,我们先不要进去查看,而是右键点击查看,链接另存为,下载网站日志。
——————
2、代码看不懂的话,可以使用光年日志分析软件GnAnalyzer,这是一个可以帮助我们进行网站日志分析的软件。比如蜘蛛抓取的情况,日志里面都有显示。
——————
3、光年日志分析软件的使用:
下载好网站日志后,就可以使用光年日志分析软件进行网站日志的分析了。
流程如下:光年日志分析软件文件夹中的GnAnalyzer.exe——文件菜单,新建任务——添加(类型选择所有文件)——下一步,保存——马上分析
——————
4、网站日志分析:
马上分析后,就可以查看当天:蜘蛛分析(概要分析、目录抓取、页面抓取、IP排行);搜索引擎分析(关键字分析);状态码分析(用户状态码、蜘蛛状态码)的相关信息。
文章参考自www.bjtcliuyan.com
‘捌’ 网站日志分析主要看的是哪些数据
一般来说得通过ftp下载自身网站的一个叫做log文件夹里面的log文件,如果是中小型网站,一般用光年日志分析工具,如果是大型网站,例如新闻门户网站,可以用shell去进行日志处理(这个是要懂代码的),一般来说日志要分析一下数据
第一、基础信息,总抓取量、停留时间(h)及访问次数这三个基础信息;
第二、目录抓取,提取出爬虫抓取的目录,分析每日目录抓取量;
第三、时间段抓取,提取每日的时间段的爬虫抓取量,重在分析每日的抓取情况,找到相应的抓取量较为密集的时间段;
第四,IP段的抓取,进行统计,每日每个IP的抓取量;
第五,状态码的统计,HTTP状态码返回值。
希望以上的内容能对您有帮助!