🤖 robots.txt 生成器
可视化创建搜索引擎爬虫规则文件
🗺️ Sitemap 设置
📋 爬虫规则
📄 生成的 robots.txt
💡 robots.txt 说明
-
User-agent: *- 针对所有爬虫的规则 -
Disallow: /path/- 禁止爬取指定路径 -
Allow: /path/- 允许爬取指定路径(优先级高于 Disallow) -
Crawl-delay: 10- 请求间隔(秒),部分爬虫支持 -
Sitemap:- 指定站点地图地址 - 注意: robots.txt 必须放在网站根目录下