众所周知,搜索引擎蜘蛛目前没有办法处理javascript脚本的内容。原因很简单。即使作为一种相对简单的弱脚本语言,它仍然是一种具有各种技能的编程语言。只有脚本解释引擎能够正确地解析和执行它,但是没有像超文本标记语言那样规定的范例和框架,所以最终的输出比超文本标记语言更难获得。这可以通过在打开包含或不包含javascript脚本的页面时参考本机浏览器的CPU和内存使用情况来看到。可以看出,javascript脚本带来了相当大的额外开销,这部分开销是小输入大输出。因此,可以预测,搜索蜘蛛在很长一段时间内仍然不能很好地支持javascript脚本,除非搜索引擎开发人员开发出能够以低成本获得javascript脚本执行结果的技术。然而,网页上许多特殊效果的实现仍然依赖于javascript(期望flash分析更不可靠,因为flash分析是用swf编译的,需要逆向工程来分析源代码)。因此,当我们制作网站的时候,我们仍然离不开javascript脚本,所以如何让javascript脚本不影响SEO已经成为新手朋友需要知道的问题。
使javascript脚本不影响搜索引擎优化的方法1网页上所有与搜索引擎优化相关的因素都用HTML表示,DOM用于特殊效果控制。只要所有与搜索引擎优化相关的因素都用超文本标记语言表达,搜索蜘蛛就可以抓取到这一部分内容,然后包括这一部分内容或者根据其中的链接继续抓取。因为蜘蛛不会抓取解析javascript脚本,所以使用DOM控制效果不会对蜘蛛抓取产生任何影响。如果您依赖javascript脚本来显示需要通过变量分配进行爬行的链接,蜘蛛将无法获得链接的相关参数:锚文本和URL。如果你有不想让蜘蛛爬行的链接,将它们写入javascript脚本变量是一个好方法。对于这些内容,你可以参考下面的文章:“javascript的标签切换”和“用例子解释一个不利于SEO的JS导航”。
2如果希望spider捕获的目标页面需要转移,不要使用javascript脚本跳转,因为这样做的话,spider根本无法获得目标页面的地址。使用noscript标记来指定目标url是一个很好的方法,因为spider可以正确识别noscript标记,并且一般不会影响浏览器显示(除非您的浏览器阻止脚本解释引擎)。你可以参考这个项目的“noscript的小用途”。
不要使用ajax获取需要蜘蛛爬行的内容。Ajax是一项很好的技术,尤其是在一些要求高实时性能的系统中。它可以很好地缓解服务器的压力,并且只有在需要时才可以查询和检索数据内容。它也可以对框架布局没有影响,并实现更令人眼花缭乱的网页效果。然而,ajax的核心是在需要时通过javascript脚本获取数据的技术,这样在显示页面时就不会加载数据。正如第一项中提到的,如果蜘蛛不能获得这些内容,它们自然就不能抓取链接。您可以参考“AJAX技术和搜索引擎优化”和“QQ空间不能用作搜索引擎优化链”。
目标
免打扰定制服务,客户信息严密无忧
365天 x 8 小时 网站咨询,秒回
365天 x 24 小时 客户经理电话,不关机!
项目中客户任何损失,我司先行垫付
一切以客户为中心,片子好看是必备前提,客户满意才是终极目的。