在国内做seo的人可能经常会听到这样一句话:“你不可能知道怎么改meta,但你一定知道怎么做外链 。”可见外链作为seo优化的手段,已经被很多seo从业者推到了一个非常高的水平 。
这种观点其实是有一定道理的,因为seo的一切工作都是为了让搜索引擎对自己的网站页面友好,但是页面本身的优化对于搜索引擎来说是有标准的,就像是一个极值 。无论你怎么优化,都是无限接近这个极值,但不可能超过 。但作为一个外部因素,外链是一个无限的价值,所以外链会感觉很快,很稳定,不容易出错 。
但如果你真的想谈如何有效优化外链,你能说你真的懂吗?
如何理解,如何有效优化外链,也许还需要从搜索引擎的运行模块和原理来分析建模 。
如果seo的工作是服务于搜索引擎,那么外链的优化就是服务于搜索引擎的spider模块 。如果spider通过大量链接爬上你的网站,他可能会判断你可能是这些网页中的一个信息节点和信息来源,从而给你相当大的权重 。
这就是外链对搜索引擎的意义,也是对spider的意义 。
我们来看看spider的作品 。蜘蛛作为一个服务器,开始从互联网上的一个信息节点抓取网页信息,并将其发送回数据库 。
互联网初期,网站侧重于综合信息,所以spider的工作比较简单,整个搜索引擎的排名机制也比较简单 。
然而,随着互联网的发展,互联网上的信息不断细分,天基信息平台的工作变得复杂 。为了快速显示搜索结果,搜索引擎必须用相同的信息对数据进行细分 。网站建设的spider从一开始的单一爬行增加了一个信息分类功能,但是当信息分类上升到几千万级的时候,整个信息爬行和重新分类的过程就变得冗长而缓慢 。
比较根本的解决方法是在spider爬行之前为服务器定义分类,即一个特定的spider服务器只爬行某些种类的信息内容,这样分类就变得简单快捷 。
spider在爬行前如何定义自己的爬行路径?
我们可以建立这样一个工作模型 。
这个过程很好理解,对我们来说比较重要也是比较必要的环节就是路径筛选 。如何筛选spider是由一个模型建立的逻辑来考虑的,即如果一个模型不能被测试,首先确定模型中两个以上不证自明的公理,然后进行逻辑推导 。我们必须首先确定公理
第一,保证整体运营效率 。
第二,保证抓取内容和分类的匹配 。
这样,通过逻辑推导,我们可以想象这样一个工作原理:对spider爬行的路径进行分析(分析过程类似于路由器搜索节点间比较短路径) 。
分析会产生一个由链接组成的爬行路径,路径中爬行的页面信息属于同一分类信息 。然后计算路径长度,得到比较优路径 。比较后筛选出比较优路径,提交给spider服务器进行固定爬行 。然后固定爬行的spider服务器就可以根据这个路径快速爬行分类,在下一个通用爬行服务器更新比较优路径之前,它会按照这个路径爬行 。
例如,红苹果和绿苹果均匀分布在一个果园里 。现在果农需要按照红苹果和青苹果的分类来摘苹果并出售 。
首先,种植者按顺序采摘所有的苹果,然后分门别类包装 。
后来果农为了提高效率,开始在纸上画果树,把所有的青苹果树用线连起来,红苹果树用线连起来,然后分成两组,按照两条不同的路线采摘 。采摘后直接包装出售 。
那么了解了这种筛选机制之后,我们可以做出什么样的外链策略呢?
1.友情链接,外链所在的页面和你网站的内容有关
2.外链所在的页面导出链接指向的大部分页面也需要与自己的网站相关
3.避免与大量外部链接的网站交流(就像如果一个房间只有一个出口,可以快速判断如何出去,但是一个房间有上百个出口 。你需要很长时间才能知道这些出口通向哪里,这大大降低了spider的效率)