SEO常用术语:什么是robots文件

企鹅博客 2019年5月8日00:29:40 发表评论 141 views

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎收录特定的部分。

一般情况下, 当网站包含不希望被搜索引擎收录内容时,才需要使用robots.txt文件。如果希望搜索引擎收录网站上所有内容,不用建立robots.txt文件。点击查看robots文件的语法及正确写法及robots文件需求用法示例

    weinxin
    欢迎加入中国SEO站长博客之家
    本站的所有资源都会上传分享到博客之家,希望大家互相学习交流进步。
    企鹅博客

    发表评论

    :?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: