当前位置:SEO首页 > SEO教程 >

SEO教程

网站结构优化-设计搜索引擎喜欢的网站

如果,我们站在搜索引擎(爬虫程序)的角度,去看一个网站的话,其实很多问题,都是迎刃而解。

1、搜索引擎爬虫,能不能找到我们的网站?

当我们建设一个新的网站的时候,让搜索引擎发现我们的网站,要么是向搜索引擎提交我们的网站,要么就是主动去发一个外链,这两种,都可以让爬虫发现我们的网站,然后,爬虫程序,会顺着我们设计好的网站结构进行页面的抓取,这里,重要的是,“会顺着,我们设计好的网站结构进行页面抓取”,所以说,良好的网站结构,是十分十分重要的一点。

如果,我们是搜索引擎的爬虫程序,让我们去抓取一个页面不是flash动画,就是js脚本的网站,你会怎么办呢?要知道,爬虫程序只认识html啊,你flash中再多链接,老子不认识啊。。。

2、找到了页面内容,能不能抓取?

如果我们的url参数太多,太复杂,在加上页面大量的flash和js脚本,内容是放在if框架中,这样,搜索引擎爬虫,绝对是给你打最低分,绝对的这是。

ps:其实搜索引擎现在已经很强大很智能了,对于一些URL很复杂的,其实也可以抓取,但是,评级很低,比如,一个网站的URL是/seo/,另一个是,/seo.php?seo=2,这两个URL,或许都会被搜索引擎收录,但是在同等条件下,前者绝对比后者排名好,前者绝对会更受搜索引擎的喜欢。

3、各种跳转

首先要说,搜索引擎只认301重定向跳转,其他的跳转,全部不认,并且很敏感,尤其是js跳转等。

4、框架结构

现在,基本上,很少见到网站有框架了,但是也不代表没有,许多企业网站还存在这种问题,比如,常见的框架有frame框架,iframe框架等,这种,我们是不推荐用的,搜索引擎不喜欢这种东西,当然,一般后台,都会涉及到框架,比如dedecms的后台,后台没什么问题咯,搜索引擎又不抓取后台的信息。

5、动态URL

这里,我们推荐URL静态化,或者伪静态化,不推荐动态,不要问为什么,看完这套教材,自然就知道为什么了。

6、js(JavaScript)脚本链接

由于js可以做出许许多多的非常绚丽的效果,许多人,为了追求绚丽的效果,链接使用js,这个,我们不推荐,虽然,搜索引擎一直在努力识别js,但是,我们不因该把希望寄托于让搜索引擎主动识别上,作为SEO,是尽量的让搜索引擎更容易的抓取收录。

7、要求登陆

有些网站,在登陆以后,才能看到具体的内容,那么要知道,搜索引擎可不会去你网站上注册,然后在登陆。

8、Cookies

有些网站,为了一些功能,强制的让用户使用cookies,如果浏览器没有启用cookies,那么就会导致页面显示不正常,这个时候,对于搜索引擎的抓取,也会出现问题。

其实,好多东西,反过来,并且不让搜索引擎发现,就是黑帽SEO,比如,脚本跳转等。