网站就像人一样。网站日志是以(·LOG)结尾的文件,记录原始信息,如处理web服务器接收到的请求和运行时错误。这是我们济南网络公司检查网站SEO数据的一个重要指标。
很多站长可能知道网站日志记录是非常重要的,也许因为密集的字符串的人更头痛,所以很多人就知道,,不去调查,几乎不知道我们做搜索引擎优化的网站日志日志提供非常大的帮助!我将重复的网站日志,它也是一个总结!希望对那些不熟悉它的人有所帮助。
Web日志
一:检查目录抓取概述
目录爬行,你可以清楚地看到网站蜘蛛爬行通过目录访问。要知道:有的目录是没有价值的,如有的图标目录、下载目录、消息目录,还有后台目录、数据库,假如让蜘蛛爬行,也是一种安全隐患。另一方面,搜索引擎对不同的站点都要抓取配额,无用的目录,不要占用这样的配额,以免减少有效的配额抓取。
二:查看抓取页面概述
抓取页面可以准确的看到爬行器抓取的每一页,这也是日志分析中非常重要的一部分。例如:多个URL链接获取?垃圾邮件页面抓取吗?它可以表现出来。甚至更多:一个页面被获取的频率越高,这个页面就越有价值。
如果你想要优化页面,并且抓取的频率很低,那么增加适当的曝光来达到想要的效果。
三:检查状态码信息
状态码分为两种类型,一种是蜘蛛状态码,另一种是用户状态码,通过蜘蛛状态码可以准确的检查网站是否有抓取问题。例如:404错误页面,301,302重定向,以及一些状态码:504,500等等。值得一提的是,除了200之外,所有的状态码都需要注意,当然,如果其中只有少数不需要注意的话。但如果数字一次太多,网站就100%错了。
另一方面,用户状态代码表示用户的访问状态,在其中可以清楚地看到用户更关心哪些页面。不要以为这是一件小事,懂得营销的站长,懂得投其所好!
上面说的是一些LOG日志工具都有的功用,而接下来我们再说一下一些进阶类型的东西:
Ⅰ:假如想要更多有效的着陆页被蜘蛛更多的抓取,那么请进行构造内链的完善。
Ⅱ:不希望蜘蛛抓取那些没有优化意义的页面上,那么robots.txt上来进行封锁。
Ⅲ:“蜘蛛陷阱”无休止的循环,浪费获取配额,爬行通过页面,可以直接看到。
Ⅳ:曝光强度足够,蜘蛛爬行,只能说,页面价值太低,需要进一步优化。
Ⅴ:我们希望每个页面下载时间足够快,你可以抓住更多页面的有效时间。
Ⅵ:并不是所有的蜘蛛都真的蜘蛛,学会看蜘蛛“采集”和“模拟”。
Ⅶ:分析蜘蛛每天,你可以看看上升或下降的趋势,明显的变化,网站会出事的。
Ⅷ:降低或者封禁不会带来流量的蜘蛛,以减少服务器压力,对大型网站很重要。
关于网站LOG日志今天我们就讲到这里,希望大家能多注意。它总是对你的搜索引擎优化有好处!