采集工具免责说明([commit日志][web敏感资产fuzz]%和2.0的区别)

优采云 发布时间: 2021-11-25 05:03

  采集工具免责说明([commit日志][web敏感资产fuzz]%和2.0的区别)

  目前支持的功能

  全自动扫描:python webmain.py -a --> baidu_site && port/dir scan 单目标扫描:python webmain.py -u --> webscan Portscan && scanDir 多目标检测:python webmain.py -f vuln_domains.txt --> webscan 不 scanDir 多目标扫描:python webmain.py -d vuln_domains.txt --> webscan Portscan && scanDirC 段检测:python webmain.py -cf 192.168.1.@ >1--> C scan not scanDir C scan: python webmain.py -cd 192.168.1.1--> C scan Portscan && scanDir

  1.0版本,项目保存在[webmain1.0]

  1.0 简介:【网络敏感资产模糊】

  %E6%95%8F%E6%84%9F%E8%B5%84%E4%BA%A7fuzz/

  1.0和2.0的区别请看【提交日志】

  下面是2.0的介绍

  项目地址

  **Github**

  **操作环境**:

  python2.6.x 或 python2.7.x

  **依赖第三方库**:

  pip 安装请求[安全]

  节目介绍

  **扫描参数不区分大小写和顺序**

  **默认代理关闭**

  **随机乱序扫描验证**

  **可以跨平台使用**

  全自动扫描

  全自动扫描,默认只加载百度搜索引擎`site:`,生成目标池,执行一些端口扫描,敏感资产和目录扫描功能,详细多目标扫描也是如此

  **命令**:`python webmain_debug.py -a `

  单目标扫描

  默认的单目标扫描模式是加载敏感资产和目录扫描功能,例如:

  **命令**:python webmain_debug.py -u `

  **扫描日志**

  **端口扫描**

  程序只扫描端口`11211`、`27017`和`小于10000`

  扫描结果如下:

  程序会自动过滤掉常规端口

  扫描结果

  结果展示

  结果保存在**report**目录

  多目标检测

  **命令**:`python webmain_debug.py -f vuln_domains.txt`

  **使用介绍**:

  快速检测,实现URL转IP后,部分端口扫描,每个开放端口的存活检测,

  如果是存活的,则进行`getitle`信息检测。小细节是添加一个`filter_ports`来过滤掉常规端口。

  考虑一种情况(边站),多个url解析为一个ip,程序添加`filter_ips`过滤已经扫描端口的ip,

  同时,如果各种意外情况导致反复扫描`scheme://netloc`,程序会添加`filter_urls`对已经扫描过的任务进行过滤。

  程序还考虑了一种情况,即:当URL是存活的,并且没有扫描到开放端口时,程序会自动检测默认端口的信息。

  包括另一种情况,当url不活跃,但扫描到其他开放端口时,程序会自动检测对应端口的信息。

  **程序只扫描端口获取目标站点标题、状态码、返回值长度,包括可能的合法IP地址、邮件资产信息**、

  但是`不检测解析到内网的ip`,黑名单如下:

  10.xxx127.xxx172.xxx192.168.xx

  多目标扫描

  **命令**:`python webmain_debug.py -d vuln_domains.txt`

  **使用介绍**:

  与多目标检测的不同之处在于增加了“敏感资产和目录扫描”,

  敏感资产检测使用`common payloads 采集`,加上生成的`date备份文件`,程序会先判断404页面的状态,然后遍历payload。

  判断条件是返回200,返回的内容大小不等于0,payload与404接口的返回大小差的绝对值大于5(或者两个返回大小不相等),

  修改程序前的附加判断条件`如果遇到waf,或者各种意外情况,导致运行的payloads返回大于40,程序会提示可能遇到waf,返回空`,

  然后增加`probe counter`来计算结果的数量。如果扫描结果很快超过25条,程序会直接结束扫描,节省时间,提高效率。

  新增“多级目录敏感资产扫描”,即在获取网页所有超链接的前提下,进行目录分段扫描,

  关于`Dirscan`的结果,就是`Common Payloads 采集 Scan`和`Multi-level Directory Sensitive Asset Scan`的结果去重后的`Union`,

  如果出现`['waf']`,则表示常用payload集合的扫描结果已经达到了程序设置的默认阈值。

  如果出现`['more_path']`,则表示`多级目录敏感资产扫描结果`已达到程序设置的默认阈值。

  其他情况可以直接点击查看验证结果,

  在Allinks中,如果提示`[more_link]`,则表示页面上的超链接超过10个。

  默认只显示前25个字符,直接点击显示详情

  C段检测

  **命令**:`python webmain_debug.py -cf 192.168.1.1`

  **使用介绍**:

  与C段检测不同的是增加了“敏感资产和目录扫描”,其余同多目标扫描

  C段扫描

  **命令**:`python webmain_debug.py -cd 192.168.1.1`

  **使用介绍**:

  与C段检测不同的是增加了“敏感资产和目录扫描”,其余同多目标扫描

  异常处理

  总会有各种意外情况导致程序产生异常报警。debug模式默认所有输出异常,正常模式不输出。

  下面是关于程序扫描时的异常处理,主要是使用`write_file`进行错误记录,

  结果保存

  默认在当前目录下新建一个report目录,根据扫描参数保存为`html`文件。

  关于扫描所有打开的端口,根据扫描参数保存为`csv`文件,将一些特殊端口保存为例如:`mysql_3306.txt`

  异常处理保存

  linux下建议使用`nohup python webmain_debug.py -d targets.txt &`后台运行,查看扫描日志中的`nohup.out`,结果同上

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线