若是我们从搜索引蜘蛛的角度去看待一个网站,在抓取、索引和排名时会遇到哪些问题呢?解决了这些问题的网站设计就是搜索引擎友好的设计
1.搜索引蜘蛛不能找到网页
要让搜索引擎发现网站首页,就必须要有外部链接到首页,找到首页后,蜘蛛沿着内部链接找到更深的内容页,以是要求网站要有优越的结构,相符逻辑而且所有页面可以通过可爬行的通俗HTML链接到达,Javascript链接、Flash中的链接等搜索引擎蜘蛛一样平常不能跟踪爬行,就会造成收录问题。
网站所有页面离首页点击距离不能太远,最幸亏四五次点击之内。要被搜索引擎收录,页面需要最基本的权重,优越的网站链接结构可以适当通报权重,使只管多的页面到达收录门槛。
2.找到网页后能不能抓取页面内容
URL必须是可以被抓取的。数据库动态天生、带有过多参数的URL、整个页面都是Flash、框架结构、可疑的转向、大量复制内容等都可能使搜索引擎敬而远之。某些文件站长不希望被收录,除了不链接到这些文件,更保险的方式是使用 ROBOTS.TXT或者 meta robots标签克制收录。
3.抓取页面后怎样提取有用信息
关键词在页面主要位置的合理漫衍、主要标签的编写、HTML代码精精简、最少的兼容性等可以辅助搜索引擎明白页面,提取有用信息。只有搜索引擎能顺遂找到所有页面,抓取这些页面并提取其中真正相关性的内容,网站才可以被视为搜索引友好的设计。
既然找到了问题的泉源,那么怎么举行网页设计才气最大水平提升搜索引擎的友好度呢?
(1)目录结构和URL。
URL是统一资源定位,即每个网页的网址、路径。网站文件的目录结构直接体现于URL。清晰简短的目录结构和规范的命名不仅有利于用户体验和网址流传,更是搜索引擎友好的体现。
(2)目录条理。
对于一个小型网站来说,一样平常只有一层子目录
如:http://www.yoursite.com/dirl/page.htm
www.yoursite.com是域名,dirl是一级目录名,page是文件名。对搜索引擎而言,这种单一的目录结构最为理想,即扁平结构(Fat)。
(3)目录和文件命名。
(责任编辑:网络)

评论列表