Bugku:web 细心

这道题打开之后

 

Bugku:web 细心

首先这个题目,细心???有点不太懂,不过里面的提示想办法变成admin感觉还比较有用。

 

打开之后,

 

Bugku:web 细心

虽然这个网页很有迷惑性,但是不难发现和平时的404 NOT FOUND的显示是不一样的,说明它就是做成的这个网页。Bugku:web 细心

 

打开源代码先查看一下。

 

Bugku:web 细心

 

并没有任何有帮助的东西。

 

这时候用到了一个新工具【也不是】:御剑后台扫描。

 

当当当当~他是后台扫描的鼻祖【?】,可以轻松的扫描有哪些文件在后台,避免手动一个一个试,因为很多。

 

Bugku:web 细心

 

扫描了一下下就扫出来了robots文件,好像在哪里见过,又想不起来了...

 

我记得robots是有关爬虫的文件,

robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。

当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。

 

打开这个robots文件看看呢Bugku:web 细心

 

Bugku:web 细心

 

disallow这个resusl.php,看来有猫腻。Bugku:web 细心Bugku:web 细心Bugku:web 细心Let me see see

 

Bugku:web 细心

 

直接在网页后面加上/resusl.php就进去了,出现以上东西,我看到了自己的ip地址,

 

最下面那行代码就解释了我们需要做的东西,再结合一开始的提示admin。构造payload如下:

 

http://123.206.87.240:8002/web13/resusl.php?x=admin

 

Bugku:web 细心

 

打开之后惊呆,不过顺利得到了flag。

 

flag懒得复制了,我懒Bugku:web 细心Bugku:web 细心

来吧,关注我一下,大家一起学习网络安全,共同进步~~

更新频率挺高哦!!实打实原创!!

Bugku:web 细心