外贸建站谷歌SEO优化技巧

外贸建站谷歌SEO优化技巧

    外贸建站谷歌SEO优化技巧 想必是每个外贸建站人员真正关心并且想要熟练掌握的一门学问。同学们可能在很多网站或者博客上看到过相同标题的博客文章,这些文章质量参差不齐内容多种多样,所表达的观点和相关技巧难免会存在一些作者的个人观点。所以当你看了很多篇这种类型的文章之后,往往会有两种截然不同的体会:要么是大彻大悟对外贸建站和谷歌SEO优化理解的非常通透,要么就是脑子里一团浆糊莫衷一是。那么今天,jack老师就和大家一起分享一下自己的5个观点!

一、查看自己的robots.txt文件设置是否正常

网站的robots.txt文件是设置一个网站的具体内容是否选择对某些爬虫软件、搜索引擎开发爬取权限的地方。这对于一个网站的页面能否被正常收录来说非常重要,相当于网站的大门密码,只有得到robots.txt允许的爬虫和搜索引擎才有权限去爬取你自行设定的网站内容和页面。我们来看一下几个知名网站的robots.txt文件设置:

百度和谷歌的robots文件

上图左侧是百度首页的robots.txt文件右图是google首页的robots.txt文件。我们可以清楚的看到,这两个搜索引擎首页在配置具体的robots访问规则的时候是有非常大差异的。相对来说谷歌的规则更加开放,而百度好像是和搜狗在死磕,很多robots的规则都限定了sogou的蜘蛛爬取(上图中我没有截图,有兴趣的同学可以自己去查看)。

那么,如何才能查看某个网站的robots.txt文件呢?很简单,直接在域名后面加/robots.txt即可。例如Jack老师的域名是www.jackgoogleseo.com,那么我的robots.txt文件地址就是www.jackgoogleseo.com/robots.txt  如果想要改写自己的网站访问规则,那么你可以在自己的网站根目录(public_html)文件中找到robots.txt文件进行编辑即可。

记得之前有个同学和我说过一个问题,他的网站上线一个月了,一个收录都没用,网站的内容和页面都没用问题,一开始我也很奇怪,还以为他是触发了谷歌搜索引擎的什么规则导致了处罚,后面突然想到可能是她在前期做网站搭建的时候选择的是—“建议搜索引擎不索引很站点”,也就是下图的这个位置:

建议搜索引擎不索引本站点

等到网站正式上线之后却忘记了在这个地方取消“勾选”状态,结果她的网站robots.txt文件就设置成—了Disallow:*;当谷歌等搜索引擎试图访问该同学网站的时候,因为得不到访问和抓取内容的权限,所以只能原路返回导致网站上线了一个多月一个正常的收录都没用。

关于robots.txt文件,谷歌官方有明确的说明,同学们可以点击这里进行查看:

JACK SEO此处内容已经被作者隐藏,请输入验证码查看内容
验证码:
请关注本站微信公众号,回复“外贸建站”,获取验证码。在微信里搜索“JACK SEO”或者“JACK 外贸建站”或者微信扫描右侧二维码都可以关注本站微信公众号。