哈尔滨城城-专业哈尔滨seo优化团队 QQ:577785827

动态网页的站内优化

   WEB动态语言有很多,ASP,PHP,.NET,JSP等,我们不在这篇文章中讨论动态语言的安全性或技术层面的东西,我仅在这篇文章中分享最新学习到的一个理念,就是ASP网站的站内搜索功能对SEO的影响。

    因为SEO对静态语言的收录有一定的优先,现在大多数在网络公司工作的程序员都开始接触SEO网络营销的概念,所以有些程序员在站点规划上会生成静态,但有个矛盾点,就是站内搜索,特别是对于一些产品或新闻信息比较多的站点,这个功能是至关重要的,由于数据的传输问题,无法做到绝对的全站静态,要么是伪静态,要么是用XML做为小型数据库进行筛选,但从本质上讲,还是动态的。

    这种站内搜索页面产生的结果页面往往是重复程度很高,或相似性很高,不太理解这个意思的朋友,我举个例子:

    比如淘宝网里有1000个电脑商品,然后搜索笔记本,或者搜索14寸笔记本,出来的结果差不多,这里仅仅是两个关键词在搜索,随着产品数据变大,可以搜索出相似结果的关键词也会越来越多,那么这些关键词搜索产生的结果页面,它们的相似性就极高,甚至有重复性,自然,百度是不喜欢这些页面的。

    上面讲的只是一个不喜欢的概念,真正理解起来,从搜索引擎的原理上分析,我们会清楚地知道,互联网上每天的更新是巨大的,但百度就一个,他派出来的“蜘蛛”抓取页面和分析页面时,都需要时间,而由于这些页面要进行数据库的筛选,花费的时间是分析其他页面的几倍,等“蜘蛛”有耐心分析完后,又发现这些站内搜索产生的页面有很高的相似性,所以容易想象,百度不会因为你的站点产生了很多这种页面而觉得你的网站规模比较大,反之有负面的影响,因为你浪费了它的时间,并且关键是这些页面并未给你的站点带来多少的丰富内容。

   那么既然如此,有没有办法处理这种情况呢?因为毕竟现在绝大多数网站都有这种站内搜索的功能,自然也存在这种弊端了。

    我看了很多国内比较知名的SEO人士的文章和访谈,他们也有提起这种情况,但至今还没有什么好的办法可以解决。

    根本原因如下所述:

    如果用robots来直接引导蜘蛛不去抓取这些页面,这一点上是可行的,但是我们要知道,来这些页面之前,蜘蛛是延着我们的站内结构一步步过来的,等抓到这些页面时,受到ROBOTS的影响,就好像我们断了它的路,这是个比喻,实际情况下,站内的权重需要传递,形成一个循环,需要断掉的话,让权重有来无回,有点类似太空中的“黑洞”。因此不管你用robots还是用其他一些手段,可以让蜘蛛不来抓取,但不能让权重做到合理的传递。

综上所述,站内搜索目前还是SEO工作者盘中的一块鸡肋,至少在目前的搜索引擎算法中还不能得到完美的解决。

    不过SEO的技术在不断成熟,搜索引擎的算法也在日趋人性化,我们知道了本质的原理,虽然目前没有办法解决,但不代表无法解决。

    我们一方面期待搜索引擎本身能协调这个问题,另一方面,我们也探索SEO的合理解决方法。


标签:
分类:seo优化| 发布:hrbseoadmin| 查看: | 发表时间:2012/2/29
原创文章如转载,请注明:转载自哈尔滨城城 http://www.hrbseo.net/
本文链接:http://www.hrbseo.net/45.html

相关文章

还没有相关文章!

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

Design By 哈尔滨seo | 沪ICP备11005206号-1 | 百度地图 | Power By Z-Blog 1.8 Walle Build 100427.