🤖 robots.txt 生成器
可视化创建搜索引擎爬虫规则文件
🗺️ Sitemap 设置
📋 爬虫规则
📄 生成的 robots.txt
💡 robots.txt 说明
User-agent: *- 针对所有爬虫的规则Disallow: /path/- 禁止爬取指定路径Allow: /path/- 允许爬取指定路径(优先级高于 Disallow)Crawl-delay: 10- 请求间隔(秒),部分爬虫支持Sitemap:- 指定站点地图地址- 注意:robots.txt 必须放在网站根目录下