为什么要做信息收集?

收集是为了更好的去发现漏洞,如果说网站是php的,那么就有可能存在sql注入,要是换成JAVA的或者Python的,只要开发者了解一点安全或者按照官方的写法,就很可能不存在sql注入,除非得到源码去审计,否则就没必要花费时间在sql注入上面。

为什么使用ip和domain进行目录扫描?

因为可能存在两种结果,ip扫描根目录,domain扫描网站目录,中间件解析的时候所对应的目录不同

怎么样人工识别cms?

通过抓包,抓取一些特征文件,比如.css .js等文件名在搜索引擎中检索获取cms的信息;百度,谷歌,github,gitee等
自动化思路:pyp模拟浏览器访问,将数据包中的.css .js等文件名在百度,谷歌,github,gitee等进行检索,比对标题等关键字相似度

目录扫描分爬行和爆破两种,伪静态网站影响目录爬行吗?

不影响,因为伪静态只是一种网站解决方案,为了加快访问速度,而目录爬行依赖的是网站的资源文件(图片,文件等),两者并无关联

为什么违法的网站会有多个类似域名?比如说.com .cn .net都是同一个网站

因为他跑路的时候会留一个,信息收集时可以留意一下

为什么目录扫描的时候,www和不带www都要扫?

因为站长可能在备份网站源码的时候会根据网站域名打包,如www.google.com.zip ,google.com.zip

如何发现并利用.git源码泄露?例如https://www.google.com/

添加.git/构成https://www.google.com/.git/尝试访问,存在即可使用GitHack工具获取源码,python GitHack.py https://www.google.com/.git/

如何发现并利用.svn源码泄露?例如https://www.google.com/

添加.svn构成https://www.google.com/.svn/尝试访问,存在即可使用Seay-SVN文件源代码泄露漏洞利用工具获取源码

如何发现并利用WEB-INF/web.xml源码泄露?例如https://www.google.com/

首先需要获取WEB-INF目录下web.xml文件的内容,根据其里面的配置信息构造payload,如/WEB-INF/classes/cn/servlet/xxxServlet.class,.记得替换成/

怎么手动下载某个文件?

改成POST请求即可,一般下载文件都是POST请求

nmap怎么绕过防火墙?怎么进行全端口扫描?

-Pn -p1-65535

收集到中间件信息能干嘛?

可以根据中间件和其版本去搜索相关漏洞

查域名注册能干嘛?

收集一些同站点不同后缀的域名,如www.google.com,www.google.cn

cdn一般是哪些网站使用?

视频网站或一些追求速度的网站,需要实名

子域名一般是哪些网站使用?

网站数量比较多,正规网站

什么情况下可以跳过一些信息收集的步骤?

通过前期对目标的一些了解,确信其不可能存在该步骤

未来,黑客可能是最懂你的心理学家

Logo

瓜分20万奖金 获得内推名额 丰厚实物奖励 易参与易上手

更多推荐