推荐seo优化的13种方式 seo优化的方式有哪些( 三 )


5、清理垃圾代码,尽量缩减页面大小 。
十一、友情链接
友情链接最好是换同行业同类目的网站链接,而且要注重质量,这样有利于搜索引擎的收录和排名 。
交换友链中有以下几点需要注意的地方:
1.不要和作弊网站交换链接,特别是被百度,Google处罚过的网站(这些网站网页收录数目和页面数量对比相差很大) 。
我们交换友链时,应该考虑友情链接在搜索引擎中的收录数量和反向链接 。如果一个网站的PR能达到4甚至4以上,但是他的收录数量或者反向链接却很少的话,那我们就得考虑该网站是否有PR劫持的作弊手段来获得高PR的 。
2.如果你的友情链接被百度降权的话,那么你的网站可能会受到牵连 。所以我们在交换友情链接的时候,大体看一些网站的实际页面数量,再看下该网站在百度的收录数量,如果收录数量极少的话,很有可能不受百度喜欢 。
我们需要查看该网站已经存在的外链数量 。如果这个网站的PR虽然有4,甚至更高,但是如果这个网站的友情链接已经达到几百,那这类型的友链就没有太大实质交换的必要了 。
3.做友情链接时,如果是新站,那么起点较低,就找个和自已差不多的交换下,老站的话就要找个和自已差不多的来交换 。交换时要看对方有没有做隐藏链接,这种链接做了是没有用的,不传递权重 。
查看友情链接是否存在欺骗行为,只是将对方的网站放在JS代码里或者友情链接iframe里面,或者在链接中加上nofollow,这样的链接蜘蛛爬行不到,对我们来说,没有意义 。
4.友情链接尽量用文字链接来展现,应尽量的避免图片链接,图片往往不被搜索引擎所识别,靠的是img标签中alt的属性值来识别图片的 。在做图片链接时一定要带上网站的alt标签,否则对于网站关键词的排名来讲,作用不会太大 。
从上面几点,我们可以看到,在交换一个友情链接的时候,需要做的工作是很多的,需要在很多搜索引擎查询对方的收录数量和反向链接,需要查询对方网站的PR,尤其要定期检查并登记报表 。
十二、持续高质量原创或伪原创内容更新
内容为王,这是亘古不变的道理,无论是seo还是新媒体,短视频运营,都是非常注重内容,一篇好的文章,加上合理化设置标题,关键词和描述,可以给网站带来很多意想不到的流量;
十三、robots文件设置
1、robots.txt对于每一个从事SEO工作的人都是非常重要的,因为通过 robots.txt 我们可以告诉搜索引擎哪些内容可以抓取,哪些内容不可以抓取 。不重要的页面进行屏蔽可以减少网站服务器的负担 。
2、一些常见的问题和知识点
①、蜘蛛在发现一个网站的时候,第一步是抓取网站的robots.txt文件(当然官方上是这么说的,有时候也会出现不遵守的情况);
②、建议所有的网站都要设置robots.txt文件,如果你认为网站上所有内容都是重要的,你可以建立一个空的robots.txt文件;
3、在robots.txt文件中设置网站地图
你可以在robots.txt中添加网站的地图,告诉蜘蛛网站地图所在的地址 。
4、robots.txt的顺序
在蜘蛛协议中,Disallow 与 Allow是有顺序的,这是一个非常重要的问题,如果设置错误可能会导致抓取错误 。
搜索引擎蜘蛛程序会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL,举个例子,你可能更清楚明白:
1.User-agent: *
2.Allow: /seo/a
3.Disallow: /seo/
这个情况下,蜘蛛/seo/a目录可以正常抓取,但/seo/目录的文件无法抓取 。通过这种方式可以允许蜘蛛访问特定目录中的部分url 。
我们对调下位置观察一下 。

  1. User-agent: *
  2. Disallow: /根目录下的文件夹/
  3. Allow: /seo/a/seo/目录出现在第一行,禁止抓取目录下的所有文件,那么第二行的Allow就无效,因为第一行中已经禁止抓取seo目录下的所有文件,而a目录正好位于seo目录下 。因此抓取不成功 。
5、robots.txt路径问题
在蜘蛛协议中,Allow和Disallow后面可以跟两种路径形式,即绝对链接、相对链接 。绝对链接就是完整的URL形式,而相对链接只针对根目录 。这是要重点记住 。
6、斜杠问题
Disallow: /seo 表示禁止抓取seo这个目录下的所有文件,如:seo1.html、seo/1.php都不允许抓取;
Disallow: /seo/ 表示禁止抓取seo这个目录下的文件,允许抓取seo1.html,但是不允许抓取seo/1.php 。
所以在设置robots文件时需要非常谨慎,最好设置完后,用相应的网站管理工具检查一下是否正常 。