《H5-前端后端分离SEO优化》

前端后端分离,怎么解决SEO优化的问题呢?
  对于90%以上的互联网公司来说,前后端分离是必须要做的。目前接手的公司的一个工程,后端是PHP,用的smarty模板,开发效率和之前公司的完全分离相比,确实低不少,一方面需要前端会PHP,另一方面沟通成本也不少,改个PHP的路由还要经过后端的同意,还有系统臃肿,维护成本高等等。但做成前后端完全分离,做成SPA,怎么做SEO呢,公司的这款产品需要大量的SEO和SEM,国内搜索引擎现在对SPA的SEO并不好。看了看其它公司的方案,知乎目前做的前后端分离是前端渲染,那怎么做的SEO呢,暂时没有太多时间研究,找了篇关于前后端分离的文章。

前端后端分离,怎么解决SEO优化的问题呢?

   这篇文章的讨论里,比较好的方式,有了nodejs后主流做法是前后端同构方案,即一套代码在浏览器端和node端都可以运行,从而可以先在node端请求数据渲染模板,然后将渲染结果返回给浏览器最终呈现,java或PHP做底层,是目前最完美的前后端分离+SEO解决方案,目测没有之一。

泻药,简单说几点自己的个人看法
解决题主的问题,首先得先想明白什么是SEO,然后再说前后端分离情况下如何做SEO优化。

我们假设这个产品是一个新产品,他需要做SEO,那么到底什么是SEO呢?SEO的缩写是『Search Engine Optimization』,搜索引擎优化,虽然我不是专业做SEO的,我也不是SEO工程师(你别说某些网站还真有这个岗位)。

不过或多或少,SEO这个行业曾经也是个特别有意思的行业。

优化针对这个问题分2个点:

1,前后端分离的架构,无法提供搜索引擎可收录的页面,需要搜索引擎蜘蛛拥有执行javascript能力才行,可现实是大部分的搜索引擎都不支持。

2,支持了SPA架构的产品,如何做SEO优化。(第一个点是先让他支持,第二条才落到优化)

我们先看第一个点,我们要做SEO支持首先要知道我们要优化哪些Search Engine。

常见的列举,百度,google,微软必应,搜狗,等等。

那么我们首先得了解Search Engine才能谈如何做到让页面被收录,这里就拿最常见的百度和google来举例吧。

百度是不支持收录SPA的页面的,而且SPA的网站对于百度的spider来说等于是只有1个页面,那么如何做到让这种搜索引擎收录页面呢?首先我们可以自行提交sitemap,让蜘蛛主动去爬,但是遇到sitemap中的URL,到达指定页面后页面只有一段js怎么办,我们可以利用比如标签来进行最简单的优化,比如在noscript里打印出当前页面一些关键的信息点,但是这个做法大家一看就非常的蠢,因为正常用户并不需要这些内容,占用下载量,而且不好维护。那么我们如何判断当前页面是否支持运行javascript呢?前端已做到,用noscript,后端不行,那么只好针对百度的spider做UA判断了,这也就是大家常见的一些解决方案,使用phantomjs或者nginx代理,来对spider访问的页面进行特殊的处理,达到被收录的效果。

那么这么做其实是有一些副作用的,比如你收录的页面和用户正常访问的页面差别较大是有被搜索引擎K掉的风险的,所以更多的做法还是选择首屏使用ssr的方式渲染,先通过后端路由保证页面的主要信息可以被服务器端输出,然后其他的功能,包括用户之后的路由跳转控制,再使用前端路由来做,曾经的项目经验在新浪博客手机版中也是这么做的,当然当时没有ssr,是后端直接渲染的模板,用户访问后,再进行交互则再采用前后端分离和前端路由控制来完成。

然后就是google的搜索引擎,是支持hashtag再rewrite访问你的静态版的,但是毕竟只有google支持,所以正规的做法都是使用pushState来对页面URL做前端的后续无刷新控制,对爬虫和所有用户提供任何入口的ssr或者首屏的直接渲染,才是最完美的SEO支持方案。

ok,到这里说清楚了第一个点,那么第二个点怎么做呢?SEO优化其实我也学过一些简单的,仅仅让站点支持收录只是第一步,关键词的搭配,页面关键词的分部,一些特殊的meta头,还有站内链接的链路,站外的链路,甚至站群权重的影响,这些加一起出一本都足够了,大家有兴趣可以去搜索SEO相关的一些书籍。

这里给大家讲一些很早年我做百度SEO的一些小故事,我上大学的时候认识一个专门做企业站百度SEO的公司,或者说小团队吧。他们做关键词的排名做到了什么程度呢?根本不需要你的网站有任何你想要的关键字,比如我想买一个『微信小程序』的关键字排名,他们当时的能力就是3天能让你上第一页。而且你的网站都不需要有微信小程序这个词。

怎么做到的呢?哈哈,其实就是站群,当时百度的收录权重是有很大的问题的,外链的引入量达到一定的时候,根本不需要你自己本身来做SEO优化,你的排名就会蹭蹭长,当然这个代价是非常大的,比如你需要先有1000个以上的域名,还要有批量的机器支持快速的更新这1000个站群的内容,和内部的链接等,这是一个技术和体力活,而且风险比较大,规则总是在变,随时有被K的风险,给客户做的时候也是需要自己测试无误再卖这种暴力产品。

所以,所谓的SEO,不还是。。。人家Search Engine里面几条规则的事,做优化,还是要先了解规则,才能优化的足够NB,这些规则里,前后端分离这玩意只是其中一条。更多的优化靠的还是内容和链接交换。

最后,再次泻药…

搜索引擎蜘蛛爬虫

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章