Robots文件是每个网站做优化时必做的文件!它必须放置在网站的根目录下面 , 它的作用是规定搜索引擎是否可以访问我的网站及规定具体访问哪些页面的文件 。这样的话我们网站中很多不需要搜索引擎收录的页面我们就不允许搜索引擎读取 , 这样会节约它的时间和减少它的工作难度 。以达到让搜索引擎喜欢我们的网站的目的 。毕竟 , 做seo就是一个如何让搜索引擎更喜欢我们的网站的过程 。
检查一个网站有没有做robots.txt文件的方式就是在网址后加robots.txt来访问 , 如:http://www.sjk8.com/robots.txt 如果一个网站不做robots文件 , 想排名好 , 基本是不可能的 。如图:
文章插图
robots文件
Robots文件具体的制作方法是 , 先新建一个文本文档 , 名字必须为“robots.txt”,内容写法如下:
- user-agent:* (中文名为用户代理,表示允许抓取的搜索引擎是哪些)
- Allow:/aaa (可以不写 , 它表示可以读取的文件夹 , 默认就是可读取的)
- Disallow:/ 文件或者文件夹的名字(列出不允许读取的文件或者文件夹)
注意“*”的使用 , “*”代表任何字符 , 如*.css代表所有的css文件 。
【要想网站排名靠前,robots.txt文件必须写好!详解robots文件】在第二句中的/符号表示网站的根目录 。如果我们的网站不允许哪个搜索引擎收录 , 比如不允许百度收录 , robots.txt文件写法如下:
- User-agent: Baiduspider
- Disallow: / (这里”/”表示网站根目录)
seo技术
比如:屏蔽一个文件夹/aa , 但是又能抓取其中某个文件夹的写法:/aa/main
robots.txt写法如下:
- User-agent: *
- Disallow: /aa
- Allow: aa/main
仅允许访问某目录下某个后缀的文件:
robots.txt写法如下:
- User-agent: *
- Allow: *.html
- Disallow: /
robots.txt写法如下:
- User-agent: *
- Allow: .html$
- Disallow
常见搜索引擎蜘蛛的名字:
googlebot、Bingbot、360Spider、Yisouspider、Sogouspider、Yahoo! Slurp
然后将制作好的robots.txt 文件上传至我们网站的根目录下即可 。
推荐阅读
- 短发|抗氧化抗衰老护肤品排名
- 要怎么做网站内链优化才不违规
- 淘宝搜索引擎排名规则 怎么让淘宝搜索排名靠前
- 你的手机号都注册或绑定了那些app和网站?这里教你几个查询方法
- 提高网站访问速度的十个技巧
- 网站导航栏设定与SEO
- 如何巧用SEO轻松把网站流量做大
- 网站SEO外链建设办法
- 网站seo优化之图片优化
- 十大值得我们回忆的经典网游 网游排名前十的游戏