Bugku:web 细心
这道题打开之后
首先这个题目,细心???有点不太懂,不过里面的提示想办法变成admin感觉还比较有用。
打开之后,
虽然这个网页很有迷惑性,但是不难发现和平时的404 NOT FOUND的显示是不一样的,说明它就是做成的这个网页。
打开源代码先查看一下。
并没有任何有帮助的东西。
这时候用到了一个新工具【也不是】:御剑后台扫描。
当当当当~他是后台扫描的鼻祖【?】,可以轻松的扫描有哪些文件在后台,避免手动一个一个试,因为很多。
扫描了一下下就扫出来了robots文件,好像在哪里见过,又想不起来了...
我记得robots是有关爬虫的文件,
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
打开这个robots文件看看呢
disallow这个resusl.php,看来有猫腻。Let me see see
直接在网页后面加上/resusl.php就进去了,出现以上东西,我看到了自己的ip地址,
最下面那行代码就解释了我们需要做的东西,再结合一开始的提示admin。构造payload如下:
http://123.206.87.240:8002/web13/resusl.php?x=admin
打开之后惊呆,不过顺利得到了flag。
flag懒得复制了,我懒
来吧,关注我一下,大家一起学习网络安全,共同进步~~
更新频率挺高哦!!实打实原创!!