义乌网站制作网站内容重复应如何解决?

重复的内容一般是指在不同域名间存在大量的相同或相似的内容。很多时候,它并非故意或至少本无恶意。譬如说,有些论坛会生成一些专为手机屏幕的页面;商店物品被显示在(有时甚至是链接到)多种不同的url上,等等。但有些时候,一些网站为了操纵搜索引擎排名,获得更多流行或长尾查询的访问量,大量地从其他网站复制内容。一般网站的重复内容有3种情况,网站本身的内容重复;网站因为url的设置问题导致的内容重复;网站内容采集。

  什么不是重复内容?

  虽然谷歌网站有方便易用的翻译功能,我们的算法不会把有着相同内容的英文版和西班牙文版看作内容复制。同样,你不用担心我们把你文章中对其他文章小片段的引用认定为重复内容。

  为什么谷歌关心重复内容?

  谷歌用户使用google时通常希望看到多样化的原创内容。如果他们找到的都是内容相同的一堆搜索结果,可以想见那是多么烦人。另外,网站管理员不愿意看到google给出象example.com/contentredir?value=shorty-george〈=en一样复杂的url。他们往往更喜欢类似example.com/en/shorty-george.htm的url,因为url设置导致的重复内容是非常冤的一件事情。

  谷歌做了些什么?

  google在抓取网页和获得搜索结果时,总是力图索引并显示内容不同的页面。这种过滤意味着,譬如说,如果你的网站有文章的正常版和打印版,并且你没有在robots.txt里设定noindex标记,谷歌就只会选择一个版本显示给谷歌用户。对于企图利用复制内容来操控排名,欺骗谷歌用户的少数情况,我们会在对相关页面的索引和排名作出适当调整。当然,我们更愿意把重点放在过滤而不是排名调整上… 因此,在绝大多数情况下,最坏的结果就是原创者看到了不愿看到的版本出现在我们的索引里。(重点放在过滤而不是排名调整上)

  网站管理员如何主动处理内容复制问题?

  1、适当阻止搜索引擎访问:与其让我们的算法来确定一个文件的“最佳”版本,你也许希望指引谷歌选取你的首选版本。譬如说,如果你不想我们索引你网站文章的打印版,你可以在你的robots.txt文件中写上目录名或正则表达式来禁止谷歌对那些打印版的抓取。

  2、使用301重定向:如果你已经重构你的网站,请在你的原网站的.htaccess中使用301重定向(永久性重定向)来重定向你的用户、google爬虫、以及其他搜索引擎蜘蛛等。

在线服务

  • 业 务
  • 售 后

服务热线

  • 0579-85122114
  • 130-5899 7758

微信

网站地图