对原创内容的识别,谷歌相对而言要强一些,但谷歌也不能说100%的找到原创作者,因此整个对原创内容识别的技术提升过程是缓慢的,不可能一口吃一个大胖子,由于对原创作者无法很好识别,故而短期之内不可能实现大幅度的对原创内容的加权。
二、对已有内容的处理:当下互联网所存在的信息之中已存在着如此多的内容,但其中的重复内容这么多,如何对其进行处理?这也是一个关键难点所在,如此多的内容不可能一刀切掉,只有通过自己的算法调整,不断的清理掉一些垃圾内容,保留下有用的信息,这一点也可以与当下百度的各种调整措施相呼应。
三、对已有站点的处理:很多站点通过采集的方式已经获取到很高的权重,同时也可能在某一类人群之中形成了一定品牌意识,那么这类网站是否应当一刀切呢?这也是一个棘手的问题,要知道,目前几乎所有的大型门户站点或多或少都是属于采集性质,如果坚决处理百度岂非惹了众怒?








