转载文章,暂且不谈关于侵犯版权的题目,就谈谈如何避免重复被搜索引擎判定为相似网页而造成的不良影响,通常大家把这种现象称之为:页面相似度--内容重复,如何逃避搜索引擎的法眼来降低相似度得到更多的正视呢?总结了几个小方法,既不高深,也不复杂,还挺实用。发出来与大家共勉
一:内容拆分法
把原有连续的文章,均匀的截取成为2段3段或是更多。
好处:降低相似度、进步访问者浏览的速度、增加页面访问量
缺点:文章无法连续浏览,原有的一次性浏览变得繁琐,同时对Title标题的优化也有一定的不利,由于会有重复。不外数目较小的情况下不会有什么大碍。
二:跟随法
把每一个段落的结尾都增加一段话,可以是有情提示,小调查,或是其他文章的推荐。
好处:进一步降低相似度,给可以更多讯息,提供更多使用的功能。例如“回到最上面”
缺点:使用不当将降低用户体验,假如使用JAVASCEIPT等作有可能影响页面加载速度,干扰客户浏览主线。
三:标签法
在特定的枢纽字后增加友情注释。例如:我们所倡导的SEO(SEO相关信息)思惟是......
好处:增加用户体验,让客户可以了解更多并不认识的专业名词,从而更好理解文章含义。 还可以天然的重复枢纽字,增加枢纽字密度。
缺点:假如使用过多,会造成页面信息繁乱,降低用户体验。增加页面体积,降低加载速度。干扰原有枢纽词布局和密度。
四:隐身法
将一些没有实际用处的词使用图片代替,经过优化的GIF图片只有十几个字节,将文章中出现的部分特定字或词进行隐身,也可以很好的达到降低页面相似度的效果。
优点:不干扰关键词布局、不干扰用户体验、不影响浏览和加载速度、有效防止被采集。
缺点:仅仅增加少许加载时间,但几乎可以省略不计。
如果以上四种方法相互配合使用可以极大地降低页面相似度,提高页面在搜索引擎中的诚信度。
以上方法都有一个小小的前提,那就是自动化,也就是需要少许程序来协助你。。。不会程度的只能手动完成了
希望我的收集对SEOER们有帮助