SEO博客在SEO最高境界就是做好内容脱离SEO文章里已经讲到了做网站优化其实没有那么简单,也没有那么难。任何网站只要坚持最根本最简单也最困难的原则:坚持做好内容,其实就是已经成功了。
介于搜索引擎算法不断与时俱进,对于很多没有用心做内容的网站给与了很大的打击,其根本原因就是搜索引擎对于垃圾内容与黑帽作弊技术的反感。
实际上,SEO在建站的前期主要工作已经完成了至少70%,故而SEOer自我突破比超越对手更重要。一般企业聘请SEO主管最重要的工作其实是监控,但由于SEO本身是一份苦力,需要比较长的时间才能看到一定的效果,于是有些人开始利用搜索引擎无法识别JS做黑帽SEO ,这对于网站短期内的排名或许有一定的作用,但是长此以往,一旦被搜索引擎发现,那么将会对网站造成无法挽回的遗憾。如:网站只收录首页、整站收录没了、整站降权等。
说一千道一万,做SEO优化还是需要坚持,现在搜索引擎对于互联网重复的内容已经具备相对高的判断力了,一种情况是你的网站内容属于大量采集或者仅仅是低级伪原创,搜索引擎在对于高质量内容的判断能力主要通过强大的数据库信息对比,如果一篇文章里大部分特证词都是一样的,那么就会被判为重复信息。所以做网站SEO优化首先要避免的就是"薄弱内容",主要是没有为搜索引擎贡献独特的新鲜内容。而实际上搜索引擎对于如何判断高质量内容的条件从不公开。SEO博客根据自己的经验猜测可能有几个标准:
1、文章内容有一定比例的独特词组和独特语句,也就是在搜索引擎的数据库里是唯一的;
2、网页内容标题最好是具备独特性质的,参考网页标题以及网页描述优化;
3、网站内容丰富的页面对于搜索引擎是一种诱惑,如页面插入符合主题的图片、视频等;
还有SEO优化发现很多网站存在URL标准化的问题,如搜索引擎原理减少网站内容重复这篇文章所讲的那样,同样的内容对应的有两个甚至多个URL,这其实就涉及到内部竞争的问题了,这些情况有可能是人为失误或者程序URL没有控制好,出现这种问题最好的办法就是让每一个内容页面与URL是当且仅当的一一对应。如URL标准化里面提到的使用301重定向。另外很多程序存在目录、日期存档、分页等情况会产生重复内容,SEO优化建议通过使用robots.txt文件屏蔽搜索引擎蜘蛛爬行相关页面。
本文由SEO博客原创,文章地址:http://www.fqseo.org/766.html,转载需保留链接!