SEO优化总结

导语: 虽然从pc互联网到移动互联网过渡后,主流搜索引擎的流量被一个个客户端,APP应用分割占据,使用的人越来越少,但是还是有很多人使用搜索引擎的,比如百度,搜狗,360搜索,必应,谷歌,这篇文章适用于任何搜索引擎。

# 目录

  • 概念
  • 术语
  • 分类
  • 方法

# 概念

SEO指的是Search Engine Optimization,中文名是搜索引擎优化。SEO是基于搜索引擎营销的一种网络营销方式,通过seo技术,提升关键词排名,获得曝光的机会,获得用户点击,继而获得用户转化率。

当你通过搜索引擎搜索一个关键词的时候,你可以在搜索结果看到很多的结果,其中搜索框里面的是关键词,第一页前几条记录带有广告字样的是做了竞价排名(SEM)的以后的效果,再往下走就是自然排名,根据关键词相关度来展现的搜索结果。

搜索引擎的原理大概是:爬行和抓取—》建立索引—》搜索词处理—》排序

seo搜索结果页面

# 术语

# TDK

TDK是网页SEO三要素,分别是网页标题title,网页描述description,网页关键词keywords

比如下面这个页面2021中国旅游攻略,中国自由行攻略,马蜂窝中国出游攻略游记 - 马蜂窝

下面是网页代码和截图。

<!DOCTYPE html>
<html lang="en">

<head>
    <meta charset="UTF-8">
    <title>2021中国旅游攻略,中国自由行攻略,马蜂窝中国出游攻略游记 - 马蜂窝</title>
    <meta name="description" content="2021中国旅游攻略,介绍了中国旅游景点、线路、美食、住宿、地图等中国旅游攻略信息,了解中国旅游等自由行攻略信息来马蜂窝旅游攻略网。" />
    <meta name="keywords" content="2021中国旅游攻略,中国自助游,中国自由行" />
</head>
<body>
    <!-- 一些内容 -->
</body>

</html>
1
2
3
4
5
6
7
8
9
10
11
12
13
14

tdk

当网页的TDK写好后,搜索引擎结果页面会把这个标题和描述显示出来。

# 关键词

关键词是用户获取信息的一种精简的词汇,简单来说就是在搜索引擎页面输入框里面输入的内容。关键词一般分为词根,词干和词叶,你可以把这个理解为大树。

比如:词根是旅游;词干就是自驾旅游,出国旅游,国内旅游,新疆旅游;词叶就是旅游需要准备什么,去哪里旅游最好。

一般来说,词根,词干和词叶的搜索量是从达到小的,但是实际来看,词根搜索量大,但是数量有限;长尾词搜索量小,但是数量是不限的,也更能代表更多用户的需求。

如何把关键词布局到网页中,那么根据《百度搜索引擎优化指南》中描述的,最好是以下内容。

  • 首页标题:网站名称 - 关键词A_关键词B_关键词C

  • 栏目页标题:栏目名称 - 网站名称

  • 内容页标题:内容标题_栏目名称_网站名称

但是还是看关键词相关性来合理分配网站的关键词,以上只是作为一个参考。

seo关键词

# 快照

快照是指访客在无法打开某个搜索结果页面的时候,或者打开速度特别慢的情况下,搜索引擎为访客提供的保存在搜索引擎服务器上面的对应页面的内容,可以看作是原网页的一个备份。

快照是衡量网站运营程度的一个指标,并不是唯一的指标。快照只是搜索结果页面的一个副本文档,不会影响关键词的排名情况。快照回档,也不会导致K站,搜索引擎的算法不停的在更新换代,快照也会随之改变,所以不必过于担心。如果快照内容和实际内容不一样,可以申请百度删除当前页面链接快照,也可以作以下操作:

  • 其一,自己站点的访问稳定性不够,买的是不知名公司的虚拟空间,访问速度会受到影响,这有可能导致蜘蛛无法按时抓取到想要的内容;
  • 其二,近期的原创力度不够,经常性的粘贴一些内容,内链做的过于频繁,导致首页权重分散;

seo快照 seo快照页面

# 链接

链接是可以传递网页排名收录权重的,主要是反向链接外部链链友情链接三种。

假设有两个站点A和B,A网站上面放一个B网站的链接,那么对B来说,来自A的链接就是反向链接,有时反向链接也可以叫做外链友情链接是站点间互相链接,也是属于外链的一种。

搜索引擎对网站排序的主要因素是相关性,权威性以及用户行为。反向链接就是权威性的重要体现,如果你的网站被很多网站作了反向链接,那么搜索引擎会认为你的网站很受欢迎,就会给你更好的展现。做好了反向链接,更利于网站排名靠前。

如果你要增加反向链接,就要做到以下几点:

  • 反向链接的锚文本文字不能集中,否则被定性为作弊;
  • 相关性的反向链接更有效;
  • 不怕涨得快就怕掉的快,暴涨无问题,如果掉得多,应该警惕;
  • 网站的反向链接应该是来自不同权值的网站,有高有低,当然权值的如果多点更好;
  • 来自不同IP的网站,如果很多域名指向同一个ip,会被认为作弊,降低排名;
  • 友情链接也是反向链接的一种,找一些相关性较强的友链比较好;

如果以上几点关于反向链接的做好了,有以下几个好处:

  • 提升关键词排名;
  • 增加站点页面收录;
  • 提升网站权威度;
  • 直接提升网站流量;

seo反向链接

以下是几点关于友情链接的建议:

  • 链接的文字体现相关性;
  • 交换的对方的网站权重更高;
  • 更新频率快的网站值得交换;
  • 对方网站的链接不宜过少;
  • 对方网站无降权等情况;
  • 经常查看网站友情链接情况;

# Canonical

Canonical标签是搜索引擎规定支持的一种标签,目的是给搜索引擎传达信息,来抓取网站管理者想要呈现的重要内容。

<link rel=’canonical’ href=’https://www.xminseo.com/2744.html’ />
1

如果是wordpress的程序:

// 加入header.php 文件的 head 
<?php if(is_single()){?>
<link rel=”canonical” href=<?php echo get_permalink($post->ID);?> />
<?php } ?>
1
2
3
4

注意事项

  • 百度搜索引擎程序还不完善,对于这个标签的支撑还不完美,如果使用该标签,前提是要两个页面完全相同。
  • 如果一个Canonical标签有问题,百度会不信任该站点的所有Canonical标签;

# Robots

搜索引擎蜘蛛访问一个网站的时候,最先访问的文件就是robots.txt,她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这也是优化人员最为看重的地方。

# robots协议

robots协议是一种存放于网站根目录下的ASCII编码的文本文件,只是一种规范,是约定俗成的一种规则,是国际互联网界通行的道德规范,并不能保障网站的隐私。

# 文件写法

  • User-agent: *: *代表的所有的搜索引擎,是一个通配符;
  • Disallow: / 禁止爬取的目录和文件;
    • /定义禁止爬取网站根目录下面的目录;
    • /admin/,就是admin目录下;
    • /admin/*.html,就是admin目录下的.html为后缀的文件,包括子目录;
    • /*?*,就是所有包含?的网址;
    • /.jpg$,就是以.jpg为后缀的图片;
    • /admin/a.html,就是admin目录下的a.html文件;
  • Allow: * 允许爬取的目录和文件;
    • /定义允许爬取网站根目录下面的目录;
    • /admin/,就是admin目录下;
    • /admin/*.html,就是admin目录下的.html为后缀的文件,包括子目录;
    • /.jpg$,就是以.jpg为后缀的图片;
  • Sitemap: 网站地图;

robots.txt生成 (opens new window)
sitemap生成 (opens new window)

# 常见搜索引擎

  • google蜘蛛:Googlebot
  • Google Adsense蜘蛛:Mediapartners-Google
  • 百度蜘蛛:Baiduspider
  • 搜狗蜘蛛:sogou spider
  • Soso蜘蛛:Sosospider
  • 有道蜘蛛:YoudaoBot
  • yahoo蜘蛛:Yahoo!slurp,yahoo-mmcrawler, yahoo-blogs/v3.9
  • alexa蜘蛛:ia_archiver
  • bing蜘蛛:MSNbot,Bingbot
  • altavista蜘蛛:scooter
  • lycos蜘蛛:lycos_spider_(t-rex)
  • alltheweb蜘蛛:fast-webcrawler
  • inktomi蜘蛛: slurp

# 例子

  • 禁止任何搜索引擎爬取网站中的任何部分;
# robots.txt generated at https://guanqi.xyz/
Use-agent: *
Disallow: /
1
2
3

比如说淘宝网的 Robots.txt文件,淘宝不允许百度的机器人访问其网站下其所有的目录;

淘宝网的 Robots.txt文件

淘宝网的 Robots.txt文件

  • 允许任何搜索引擎爬取网站中的任何部分;
# robots.txt generated at https://guanqi.xyz/
Use-agent: *
Allow: /
1
2
3

# 算法

每一个搜索引擎都有一套自己的算法,用来打击一系列seo作弊非法行为,维护公平正义。

获得网站网页资料,建立数据库并提供查询的系统,我们都可以把它叫做搜索引擎。

搜索引擎的数据库是依靠一个叫“网络机器人(crawlers)”或叫“网络蜘蛛(Spider)”的软件,通过网络上的各种链接自动获取大量网页信息内容,并按一定的规则分析整理形成的。

Google、百度都是比较典型的搜索引擎系统。 为了更好的服务网络搜索,搜索引擎的分析整理规则,即搜索引擎算法是变化的。

这里重点介绍百度的搜索引擎算法。

# 百度绿萝算法

百度绿萝算法 (opens new window)是百度于2013年2月19日上线的一种搜索引擎反作弊的算法。该算法主要打击超链中介、出卖链接、购买链接等超链作弊行为。该算法的推出有效制止恶意交换链接,发布外链的行为,有效净化互联网生态圈。

# 百度惊雷算法

百度惊雷算法 (opens new window)是百度2017年11月上线的一种算法,严厉打击通过“恶意制造作弊超链”和“恶意刷点击“的手段来提升网站搜索排序的作弊行为。

# 百度蓝天算法

百度蓝天算法 (opens new window)是百度搜索引擎针对新闻源站点售卖软文、目录等严重违反新闻源规则,并影响用户搜索体验行为,于2016年11月正式启用的一种搜索引擎算法规则,其目的是严厉打击新闻源售卖软文、目录行为,还用户一片搜索蓝天。

# 百度石榴算法

百度石榴算法 (opens new window)是针对低质量网站的进一步打击的升级版,与之前百度绿萝算法相对应,这正是百度搜索引擎为了提高用户体验,提高入网安全性,提高搜索质量的有力手段。

# 百度原创星火计划

百度原创星火计划 (opens new window)是在百度搜索团队首次表示,正在设计一套较完善的原创识别算法,并提出了互联网生态的项目课题,是为了解决原创内容的搜索排名问题。2013年2月,百度搜索团队在发布的2013年中国网站发展趋势报告中更是明确表明,2013年百度将推出原创星火计划,建设原创联盟,给予原创、优质站点更高的发展空间。

# 百度冰桶算法

百度冰桶算法 (opens new window)是百度移动搜索针对强行弹窗app下载、用户登录、低质广告等影响用户体验的站点行为和页面进行一系列调整。

# 百度白杨算法

移动端广告弹窗、强制下载APP、登陆才能阅读全文等行为,如果发生在移动页面,则是本次冰桶算法惩罚的对象。

站在可以:

  • 去掉弹窗广告,去掉影响阅读内容主体的广告

  • 页面不要出现强制下载APP的情况

# 百度轻舟算法

百度轻舟算法目的是为了让PC站点与移动达到适配。一方面,有利于提升移动搜索引擎的用户体验。另一方面,方便网站在移动搜索引擎方面获得品牌曝光。

站长可以:

  • 跳转适配
  • 代码适配
  • 自适应

# 百度飓风算法

百度飓风算法旨在严厉打击以恶劣采集为内容主要来源的网站,同时百度搜索将从索引库中彻底清除恶劣采集链接,给优质原创内容提供更多展示机会,促进搜索生态良性发展。

百度飓风算法会例行产出惩罚数据,同时会根据情况随时调整迭代,体现了百度搜索对恶劣采集的零容忍。优质原创站点如发现站点索引量大幅减少且流量大幅下滑现象,可在反馈中心进行反馈。

# 百度闪电算法

百度闪电算法是:

  • 针对的对象是移动端网站的首页。
  • 以时间为算法触发维度,分别为小于等于两秒,大于两秒小于等于三秒,以及大于三秒。
  • 通过移动网站打开的时间,来判定哪些网站将获得优先排名,优先展现。

站长可以:

  • 提升移动网站首页的加载时间
  • MIP技术,AMP技术

# 谷歌熊猫算法

谷歌熊猫算法是打击低质内容,通过点击流、内容质量 、链接3个关键点入手。判断低质内容。

站长可以:

  • 可以培养网站权重
  • 加大原创内容的添加,
  • 添加优质链接添加。

# 谷歌企鹅算法

谷歌企鹅算法是打击网站过度优化,如关键词堆积,提供给用户看的内容与搜索引擎看到的内容不一样。或者重复的内容。

站长可以:

  • 避免关键词堆砌;

关键词密度公式如下:=100)/关键词密度=(关键词数量100)/*100)/文章数量。

  • 避免重复内容;
  • 避免过多的垃圾链接;

# 方法

# 站内优化

# 搜索关键词

搜索关键词应该是设置为解决问题,而不是描述问题。

比如说:结婚穿什么衣服,终极要解决他的问题是哪里能买到衣服,而不是让他学习怎么搭配衣服。

要解决他的最终需求,这样的引流和转化的效果才会更好。

# 提升网站打开速度

时间越短,用户满意度越高。站长可以采用CDN,无用代码移除,服务器宽带升级,缓存,页面瘦身,纯静态页面等方法解决。

# 提升UI,UX及品牌

给用户留下一个好印象,可以参考行业里较好的站点进行模仿、购买付费版本的网站模板或让用户参与到每个设计环节里。

# 避免使用反作用seo元素

  • 一些弹窗
  • 固定飘窗
  • 广告位

# 常规的关键词布局

常规的关键词植入(爆老师称其为填词)也要继续做,比如Title,H1,文章内关键词,外链锚文字,内链锚文字,图片ALT,URL,图片命名等。

seo关键词布局

# 使用相关性的主题

一个大的相关性主题,这样的页面内容会让关键词排名更全面而且对更多用户有帮助。同时,搜索引擎可以解读到你要推的主题内容。

# 文字的深度优化

排名所展示出来的信息对点击率很重要,title的创意、desc的飘红、url的规范、文章日期、使用结构数据、在线对话都是不错的方法。

# 创造高价值质量的内容

好的内容包括

好内容包含:

  • 提供唯一性特别强的视觉体验,前端界面,适宜的字体与功能按钮。
  • 内容必须有用高价值,高可信度,很有趣,值得收藏的点在里面。
  • 与其他内容相比没有重复性,在深度上更加强劲。
  • 打开速度快(无广告),并且可以在不同终端阅读。
  • 能产生情绪化的思绪如赞许,惊讶,快乐,思考等。
  • 可以达到一定的转发和传播力量。
  • 能用完整,准确独有的信息解决问题或是回答问题。

# 站外SEO

# 建设高质量反链

  • 高质量的内容被转载
  • 具备相关性的友情链接是比较完美的外链
  • 分类目录
  • 社会化书签
  • 论坛帖子发布以及签名
  • 购买方式增加外链

# 影响优化因素

  • 外链建设

一条高质量的友情链接胜过于多条低质量友链;一条相关度极高的外链更是胜过于垃圾外链。

  • 服务器端优化
  • 社会化引流

# 网站权重

本没有网站权重,提的人多了,也就有权重一说。百度权重是站长工具等第三方平台以当前网站关键词排名情况所带来的预估流量为标准,对网站划分等级,共10个级别,如权重1,权重9等。

从本质来看,第三方平台提供的网站权重预估是一个参考数据而非网站流量评估的唯一标准。

我们做seo,做搜索引擎优化,需要把重心放到如何提高网站本身各页面的质量,如何为用户提供更丰富的内容,如何为用户提供更好的用户体验度上面来。从这个角度来讲,百度权重神马的都是浮云。

# 改版降权

网站改版后,搜索引擎不会无缘无故对你的网站进行降权处理。

一定要保证改版后内容不丢失,数据很完整,可以做一下工作:

  • 网站栏目不变更或只增不减
  • 导入原有网站数据
  • 保持原有URL地址
  • 填充网站数据
  • 设置404错误页面
  • 死链提交
  • robots屏蔽

# 提高索引量

百度索引量,提高索引量才会提高关键词曝光与点击的概率。内容为王,外链为皇。

  • 原创文章
  • 高质量外链

# 黑帽SEO

做白帽要花费更多的时间和精力,有些人就开始走捷径,作弊,以用来提供网页收录量,搜索排名。

以下是几种作弊手段。

  • 能被搜索引擎快速识别的关键字堆砌,在标题描述、网页、ALT标签中堆砌关键词

  • 桥页也叫门页、跳页、过渡页,桥页通常是针对特定的关键字词组或短语,用软件自动生成大量低质量包含关键词的网页,然后从这些网页做自动转向到主页。

  • 隐藏链接(黑链)、文字、页面

  • 网页劫持pagejacking:将别人的网站内容或者整个网站全面复制下来,偷梁换柱放在自己的网站上。而欺骗性重定向,鬼域与其类似。

  • PR劫持使用欺骗手段获得工具条上比较高的PR显示。方式是利用301和302定向的功能。

  • 蜘蛛劫持:根据访客的user-agent的不同来进行此操作;

  • 垃圾链接:

    • 出现在论坛和博客的评论和留言中且无贡献值
    • 自动生成(主要指采集页面)的页面产生的链接;
    • 页面内容和Title以及描述严重不符的网页输出链接;
    • 自动评论和顶贴软件生成的链接
  • 网站镜像:通过复制整个网站或部分网页内容并分配以不同域名和服务器,以此欺骗搜索引擎对同一站点或同一页面进行多次索引的行为;

  • 诱饵替换:搜索引擎具有短期的记忆特性,所以诱饵替换页面往往能在原来正当或比较容易的关键词搜索中保持一段时间的排名;

    • 第一种是针对竞争比较低的长尾关键词制作页面,获得排名但和点击后,把页面全部换成与热门关键词相关的商业价值更高的内容。
    • 第二种是针对普通用户正当的关键词制作内容,获得排名后再把页面换成非法、成人、赌博等内容。这类作弊大多用于一些短期暴利行业,从介绍就可以看出搜索引擎再次更新后任何排名将不复存在。
  • 文章内容采集

    • 采集器
    • 伪原创工具
  • 买卖链接

  • 链接工厂(站群,链轮)

  • 群发软件

    • 博客群发
    • 论坛群发软件
    • 微博群发
    • QQ群发
    • 邮件群发
    • 短信群发
    • 外链群发
  • 蜘蛛陷阱

    • Flash动画
    • Session ID
    • 框架结构
    • 动态URL
    • JS链接
    • 要求登录
    • 强制使用Cookies
  • 虚伪链接

  • 欺骗点击链接

  • 弹窗广告

  • 刷站

    • 刷百度排名
    • 刷百度下拉框(相关搜索)
    • 刷百度分享
    • 刷网站流量

对一个正常的商业网站和大部分个人网站来说,做好内容,正常优化,关注用户体验,才是通往成功之路。

# 安全

为了防止网站被黑,需要做一系列安全方法。

# 被黑类型

  • 网站被挂木马:不法之徒拿到网站的后台,ftp等管理权限,在网站中隐蔽的位置植入恶意代码,会导致网站的流量骤减,甚至于网站被K。
  • 网站域名被恶意泛解析:黑客破解了网站管理员的域名管理权限,就有可能对网站进行恶意泛解析。
  • 跳转:在被破解的网站中,加入js跳转代码,直接获取网站原先的正常流量。
  • 百度快照劫持:黑客劫持快照在你不工作的时候进入你的网站的,一般是凌晨1点到5、6点这段时间。

# 预防方法

  • 服务器日志的定期查看,主要看是否有可疑的针对网站页面的访问。
  • 通过ftp查看网站文件的修改时间,看时间上是否有异常。
  • 核查网站程序是否需要更新,如果有,可第一时间更新到最新版本。
  • 如果网站使用了第三方插件,请确认其来源,同时评估这些插件的安全性能。
  • 修改建站程序重要的文件名称,修改默认的后台登录地址,防止黑客利用软件自动扫描特定文件以获取相应权限。
  • 将ftp,域名,空间,网站后台登录的用户名以及密码设置得尽可能复杂,万不可使用弱口令。
  • 选择口碑好,技术强的服务器空间服务商如万网。
  • 如有可能,尽可能关闭不需要的端口,限制不必要的上传功能。
  • 服务器端设置防火墙等,通常需要与空间服务商沟通,让其代为设置。

# 被黑处理

  • 排查网站的源代码,将非网站本身的代码去除;
  • 修复网站漏洞,不给黑客可乘之机;
  • 修改网站相关的用户名与密码,与空间商联系加强服务器端的安全设置;
  • 通过申诉的方式尽可能减小网站的流量,排名损失;

# 总结

以上就是从互联网上面搜集的一些关于seo的知识,希望给位seoer尽快学会来提高自己网站的优化收录排名索引量。

分享至:

  • qq
  • qq空间
  • 微博
  • 豆瓣
  • 贴吧