前端SEO该学习什么

2019-11-09 15:35  63 次 评论 0 条

前端SEO该学习什么,网站前端开发工作人员不可避免的会与seo打交道,会seo的前端开发也会更吃香。

许多时候,担任网站前端开发的盆友欠缺对seo的基础掌握,致使整体企业网站建设,运营效率偏低。事实上seo对于前端开发而言很有必要的,学习培训某些通用性的seo技术,不耗时不费力,又可提升工作效能,提升自身能力,很好很好。

前端SEO该学什么

前端SEO该学什么

产品研发的同学,实际上许多人并没有深入掌握SEO这些定义。在技术博客里,谈及这一块的也寥寥无几。我今天就拿自己的经验,简单给大家扫个盲,有哪些忽略的地方,欢迎大家补充。文字主题内容有点多,但是干货满满,请耐性阅读理解!

什么是SEO:

https://www.xmaoseo.com/site-optimizing/1736.html

以下几点摘自百度百科:

SEO(Search Engine Optimization):汉译为搜索引擎优化。搜索引擎优化是一种利用搜索引擎的搜索规范来提升现阶段网站在有关搜索引擎内的自然排名的方法。SEO指的是为了更好地从搜索引擎中获得大量的免费流量,从网站结构、主题内容建设方案、用户互动传播、网页页面等角度进行合理性规划,使网站更适合搜索引擎的索引原则的行为。

SEO基本原理

实际上搜索引擎做的工作是非常繁杂的,大家在这里简单说一下大致的过程。后续针对SEO如何优化方案,也会根据这几条点展开描述。

网页页面抓取: 蜘蛛向服务器请求网页页面,获取网页页面主题内容

分析入库:对获取到的主题内容进行分析,对优质网页页面进行收录

检索排序:当用户检索关键词时,从收录的网页页面中按照一定的规范进行排序,并返回给用户结果

SEO优化方案

既然是优化方案,那大家就得遵循SEO的基本原理来做,可谓知己知彼,百战不殆。针对上面明确提出的三点,大家分别展开叙述。大家在这里主要以百度蜘蛛举例。

网页页面抓取

怎样才能吸引住蜘蛛进入大家的网站,怎样才能让蜘蛛经常进入大家的网站。在这里明确提出下列几条优化方案点:

提交网页页面。提交网页页面又分为几种不同的方法

sitemap提交。sitemap,顾名思义,就是说网站地图,当蜘蛛来到大家的网站时,告知它大家有多少网页页面,不同网页页面是按什么分类的,每个网页页面的地址是什么。顺着大家的指引,蜘蛛会很轻松的爬遍所有主题内容。另外,如果你的网页页面分类比较多,并且数量大,建议添加sitemap索引文件。如果站点经常更新添加新页面,建议及时更新sitemap文件;

主动提交。就是说把你的网页页面直接丢给百度的接口,亲口告知百度你有哪些网页页面,这也是效率最高都是收录最快的方法了。但是需要注意,百度对每天提交的数量是有限制的,并且反复提交重复的网页页面,会被降低每日限额,所以已被收录的网页页面不建议反复提交。收录有个时间过程,请先耐性等待;

实时提交。在网页页面中安装百度给的提交代码,当这些网页页面被用户打开我,便自动把这些网页页面提交给百度。在这里不需要考虑重复提交的问题。
上述几种提交方法能够同时应用,互不干涉冲突。

确保大伙儿的网页页面是蜘蛛能读的。

早在ajax还没流行的的情况下,实际上SEO对于前端的要求并没有很多,或者说,哪个情况下还没有前端这种岗位。网页页面所有在服务器端由渲染好,不管是用户还是蜘蛛过来,都能很友好的返回html。ajax似乎原本是为了避免有数据交互致使必须重刷网站页面设计的,但是被大规模滥用,一些开发者不管三七二十一,所有数据都用ajax请求,促使蜘蛛不能顺利的获取网页页面具体内容。庆幸的是这反倒推动了前端的飞速发展。

到了后来,各种SPA单页应用框架的出現,促使前端开发者不再须要关心网页页面的DOM结构,只需专注业务逻辑,数据所有由Javascript发ajax请求获取数据,然后在客户端开展渲染。这也就致使了老生常谈的SEO问题。百度在国内搜索引擎的市场占有率最高,但是很不幸,它并不支持ajax数据的爬取。于是,开发者开始想别的解决方法,比如检测到是爬虫过来,单独把它转发到一个专门的路由去渲染,比如基于Node.js的Jade引擎(现在改名叫Pug了),就能很好地解决这种问题。React和Vue,包括一个比较小众的框架Marko也出了对应的服务端渲染解决方法。详尽具体内容查看对应文档,我就不多说了。

网页地址与301

网页地址设置要合理规范,层次分明。假如网站到了后期发现网页地址不合理须要重新替换时,会致使之前收录的页面失效,就是大伙儿所说的死链(这种情况属于死链的一种,404等也属于死链)。因此一定要在网站建设初期就做好长远的规划。一旦出現这种情况也不要过于担心,大伙儿可以采取向搜索引擎投诉或者设置301自动跳转的方式解决。
网页地址层级嵌套不要太深,建议不超出四层。提高面包屑导航可以使网页页面层次分明,也有利于为蜘蛛营造顺利的爬取路径。
不仅如此,将对准网站首页的域名所有设置301自动跳转到相同网页地址,可以避免分散权重。

分析入库

当蜘蛛把网页页面抓取回去之后,就须要对网页页面具体内容开展分析,并择优收录入库。为什么说是择优呢?下边我给你慢慢地分析。
搜索引擎的目的是给用户提供高质量的、精准的搜索结果。假如整体网页页面充斥着满满的广告宣传和各种不良信息,这毫无疑问会很大程度上影响用户体验。
不仅如此,你肯定不希望自身千辛万苦创作的文章被别人易如反掌的抄走,因此搜索引擎在一定程度上帮助你避免这种情况的发生。对于已经收录的具体内容,搜索引擎会降低其权重,甚至直接不收录这种网页页面。即便是这样,为了保证网页页面的新鲜度,很多网站都会爬取或者转载其他网站的具体内容。这就是大伙儿经常听到的伪原创。因此,想要让你的网页页面能够以较高的权重被收录,就须要坚持更新网站具体内容,并且是高质量的原创具体内容。

检索排序

这块我的理解是,网页页面被收录后,会给每个网页页面打一些tag。这种tag将作为搜索结果排序的重要依据。比如用户搜索“seo教程”,搜索引擎会检索收录网页页面中被打了“seo教程”tag的网页页面,并根据一系列规则开展排序。因此,怎样提高这种tag在搜索引擎里面的权重是尤为重要的。

TDK优化

TDK是个缩写,seo网页页面中的网页页面描叙与关键字设置。

在其中”T”代表页头中的title元素,这儿可能还要利用到分词技术,当标题(Title)写好后,大伙儿就尽可> 能不要再去修改了,尽可能简洁,没意义的词最好不要加入到标题中,避免干扰到搜索引擎识别网站主题风格。

在其中”D”代表页头中的description元素,要知道描叙是对网页的一个概述,也是对title的填补,是因为title中只能书写有限的字数,因此在description中就要稍稍详尽的填补起来,一般用一句两句概括文章的具体内容。

在其中”K”代表页头中的keywords元素,提取网页页面中的主要关键字,数量控制在三到六个内。想方设法让主关键字都出現。
以上具体内容摘选百科,这儿须要填补几个方面。

TDK是搜索引擎判断网页页面主题内容的关键,因此要在title里面言简意赅的体现出网页页面的主要内容,假如主体比较多,可以用一些符号把不同的主题词隔开,但是关键字不要太多,最多不要超出五个。

keywords里面把每个关键字用英文逗号隔开,三到五个最佳。尽可能覆盖每个关键字。

description就是用自然语言描叙网页页面的主要内容,这儿特别注意一点就是把每个关键字至少覆盖一遍才能达到最佳效果。

提高网页页面关键词密度

首先说个概念,叫关键词密度。简单理解就是关键字在所有文字具体内容中出現的比例。提高关键字的密度,有利于提高搜索引擎针对对应关键字的搜索排名。但并不是大伙儿整体网页页面密密麻麻堆砌关键次就好,大伙儿来分析一个案例。

大伙儿在百度搜索“seo教程”,排在第一的是seo教程自学网https://www.xmaoseo.com/,这种就不解释了。大伙儿就分析一下下为啥携程会综合排名那么靠前。

本文地址:https://www.xmaoseo.com/seopeixun/1878.html
关注我们:请关注一下我们的微信公众号:扫描二维码SEO优化培训教程网_网站SEO技术与网络营销教程培训学习的公众号,公众号:TopHtml
版权声明:本文为原创文章,版权归 小猫SEO优化 所有,欢迎分享本文,转载请保留出处!

发表评论


表情