百度SEO常见问题有哪些?
1、js在百度移动端能否被识别?
这算不上规则,但要重点且突出说明一下,因为在移动端起码百度能够很好的识别js里的内容,包括一些js框架的渲染。但在这里平哥SEO还是需要强调,作为SEO从业人员,让爬虫使用js的方式进行渲染无疑还是在增加爬虫抓取网页的困难程度。如果单纯站在SEO的角度来看这个问题,那么如果能够更好的提升爬虫抓取效率我们就应该怎么做。当然很多时候网站用什么技术并不是SEO说了算的,所以这里你也要明白,爬虫对js的支持程度,然后就不用太过于担心某些问题了。
2、网页发布时间对于SEO有没有好处呢?
网页发布时间,是判断文章原创和时效性的重要依据,鼓励所有的网页无论移动还是PC都要设置,但切记不能写成昨天、今天、明天这种。正常的按照时间编码格式进行设置即可,例如单纯日期的2017-08-06,日期+时间的2017-08-06 12:31:46,可能有人会说那是用日期格式好呢?还是用日期+时间格式好呢?再换言之百度用它评测原创度,假设你是今天发的,抄袭你的人是在你发了之后的10分钟后发布的。
那么这个时间格式是否就有用了呢?当然搜索引擎判断这些的方式不单纯依据于时间本身,因为你利用时间作弊了,那搜索引擎岂不是很被动。所以设置时间会给搜索引擎更多的参考条件,建议设置上。
3、给网站标题加符号,对排名有影响吗?
网站标题对于搜索引擎排名而言,是寸土寸金、注重之中的地方。那么如果当我们网站标题不做大改动只是添加一些标点符号时,对排名会有影响吗?
在我从业以来,我改过的标题数不胜数,加符号的事情也做了很多很多。到目前为止还没有发现负面的影响。可以说加符号对排名而言没什么影响。
给网站标题加符号,那有正面的影响吗?
有的,我如果准备给标题加符号的时候。平哥SEO的目的是为了吸引用户的眼球,和别人不一样,让用户在十条搜索结果中注意到我的排名结果,从而获得关注最终优先点击我的。短期看我是通过加符号获得了排名点击,但根据搜索引擎对用户行为日志的分析算法来评定,我的排名就会有所提升。
4、搜索引擎爬虫可以检测重复率吗?
此问题,之前有几个网友在QQ上和我询问,才觉得貌似部分人在这里是存在误区的。那么今天展开来一起讨论下爬虫可以检测重复率吗?
首先,要明确一点,爬虫本身做的工作是在互联网上寻找URL地址,然后取网页中的内容。爬虫的“抓”和“取”是两个动作。抓是找网址,取是把找到的网址里的内容下载下来。这个内容宽泛来说是指整个网页的源代码。爬虫最重要的工作就是这两个。对于是否能够检测网页的重复率不是爬虫完成。
但换一个问法,搜索引擎可以检测网页的重复率吗?这个是可以的。搜索引擎要实现最后的结果,中间经过的处理环节很多。而在对数据处理的过程中,先提取你网页源代码中的文本信息,然后进行分词,分词之后就可以知道在你的网页中某些词在你网页中出现了多少次。中间再把格式不一样但内容一样的做去重。最后你网页有价值的检索词就出现了,同时你网页的重复性也就此得知了。
5、canonical标签对于百度重要性大吗?
这个标签是和含义请大家访问文章:Canonical标签对网站有什么好处?,自行脑补,这个标签在PC上的作用并没能完全的发挥到位,但在移动端作用很大,建议大家在需要设置时,不要吝啬,一定要设置。
6、死链应该怎么设置呢?
不用说大家也应该都明白死链要干嘛,是的,这里说的是http协议中的404状态码。当页面不存在我们提交死链时一定返回的404状态码,而404页面本身也应该存在文字版的页面不存在等文字提示信息。
平哥SEO遇到很多的情况是这样,不知道是技术问题还是SEO的脑瘫原因,他们设置404页面的情况是这样,当我访问这个页面时,且这个页面是不存在的,给我返回的状态码是200,但js跳转到了一个url为404.html的链接上,提示我网页不存在了。理论上实现逻辑没问题,你确实告诉了用户这个页面不存在了,但你200的状态码却告诉爬虫页面存在。所以这么做不合理,检查下你的网站是不是这么设置的,然后改正过来吧。
还有一种情况,是访问错误页面时,会告诉用户页面不存在,几秒种后跳转至首页或者之前访问的页面,但用户点开这个页面时状态码返回的是404,且有具体提示信息,爬虫也知道了页面不存在了。那么再进行跳转。对爬虫而言无所谓了,这样的跳转是靠谱的。
7、网站URL无效参数应该怎么设置?
很多网站都会有很多的无效参数,例如我的博客www.wsjzxx.com/123是一个网页,然后我为了在别的平台推广我的博客,我加了一个参数,www.wsjzxx.com?type=cpc,那么这两个网页访问的就会是同一个页面。对于搜索引擎而言这可是两个网页。假设每一个页面都有1块钱的比例分配,那么这个页面分到的就是5毛,因为被另一个分摊了5毛。如果这个钱是权重的话,那你的损失岂不是很大?
百度站长工具已经推出无效参数提交的功能,大家可以利用这个工具过滤这些无效参数。也可以使用anonical标签来进行提示,或者在robots中进行屏蔽都是可以的。喜欢本文的记得点赞和转发朋友圈。
看完本文的也喜欢: