【发布时间】:2017-09-17 13:48:57
【问题描述】:
我在日志中注意到 Chrome 请求了 robots.txt 以及我期望的所有内容。
[...]
2017-09-17 15:22:35 - (sanic)[INFO]: Goin' Fast @ http://0.0.0.0:8080
2017-09-17 15:22:35 - (sanic)[INFO]: Starting worker [26704]
2017-09-17 15:22:39 - (network)[INFO][127.0.0.1:36312]: GET http://localhost:8080/ 200 148
2017-09-17 15:22:39 - (sanic)[ERROR]: Traceback (most recent call last):
File "/usr/local/lib/python3.5/dist-packages/sanic/app.py", line 493, in handle_request
handler, args, kwargs, uri = self.router.get(request)
File "/usr/local/lib/python3.5/dist-packages/sanic/router.py", line 307, in get
return self._get(request.path, request.method, '')
File "/usr/local/lib/python3.5/dist-packages/sanic/router.py", line 356, in _get
raise NotFound('Requested URL {} not found'.format(url))
sanic.exceptions.NotFound: Requested URL /robots.txt not found
2017-09-17 15:22:39 - (network)[INFO][127.0.0.1:36316]: GET http://localhost:8080/robots.txt 404 42
[...]
我正在运行 Chromium:
60.0.3112.113 (Developer Build) Built on Ubuntu, running on Ubuntu 16.04 (64-bit)
为什么会这样? 有人可以详细说明吗?
【问题讨论】:
-
注意是
robots.txt,而不是robot.txt。 -
你能重现这个还是这只是你在日志中看到的?
-
我已经切换了浏览器,但我可以通过在本地计算机上重新启动服务器并发送请求来重现它。
-
你有类似的元标记:
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> -
@MondKin 有一段时间了,我以前没有考虑过这个(我很傻)。果然我今天检查了我可以使用哪些扩展,并将 wappalyzer 确定为罪魁祸首github.com/AliasIO/Wappalyzer/blob/… 如果你把它放在答案中,我会奖励你赏金
标签: google-chrome chromium robots.txt