网站采集工具

网站采集工具

[安全工具] 未授权主机信息收集工具-RPCSCAN

采集交流优采云 发表了文章 • 0 个评论 • 54 次浏览 • 2022-05-24 18:59 • 来自相关话题

  [安全工具] 未授权主机信息收集工具-RPCSCAN
  [安全工具] 未授权主机信息收集工具-RPCSCAN
  功能描述:此工具在内网中,能直接未授权获取到目标主机的进程信息,和可能运行过的程序,能方便渗透测试人员在内网中进行高价值主机目标发现。
  推送亮点:类似OXID未授权发现主机网卡信息一样,此工具也能未授权进行主机信息收集。
  工具原理:最近在研究windows的RPC,此工具的主要目的是为了方便内网信息收集。它通过未授权访问目标的135端口并获取目标的rpc map,后通过解析RPC map中的UUID来判断目标主机可能存在的进程(许多进程会在RPC MAP中注册RPC服务,类似360),后续还可以通过相关进程来判断远程主机可能开放的端口。整个过程只需要向目标的135端口发送十几个流量包,在网络和主机层的特征和动静比较小,方便隐秘渗透。
  欢迎各位师傅使用,有什么bug欢迎留言或联系knight!
  使用方法:
  
  使用实例:使用100个线程扫描c段(3秒)。
  
  工具链接:
   查看全部

  [安全工具] 未授权主机信息收集工具-RPCSCAN
  [安全工具] 未授权主机信息收集工具-RPCSCAN
  功能描述:此工具在内网中,能直接未授权获取到目标主机的进程信息,和可能运行过的程序,能方便渗透测试人员在内网中进行高价值主机目标发现。
  推送亮点:类似OXID未授权发现主机网卡信息一样,此工具也能未授权进行主机信息收集。
  工具原理:最近在研究windows的RPC,此工具的主要目的是为了方便内网信息收集。它通过未授权访问目标的135端口并获取目标的rpc map,后通过解析RPC map中的UUID来判断目标主机可能存在的进程(许多进程会在RPC MAP中注册RPC服务,类似360),后续还可以通过相关进程来判断远程主机可能开放的端口。整个过程只需要向目标的135端口发送十几个流量包,在网络和主机层的特征和动静比较小,方便隐秘渗透。
  欢迎各位师傅使用,有什么bug欢迎留言或联系knight!
  使用方法:
  
  使用实例:使用100个线程扫描c段(3秒)。
  
  工具链接:
  

【黑客信息搜集工具】最大限度查找主机名

采集交流优采云 发表了文章 • 0 个评论 • 53 次浏览 • 2022-05-24 01:17 • 来自相关话题

  【黑客信息搜集工具】最大限度查找主机名
  大家好!我是每天为大家分享好文的柠檬!与你一起成长~
  有需要体系化黑客渗透视频教程可看文末哦
  
  Bing-ip2hosts
  Bing-ip2hosts是一款针对站点的网络爬虫工具,该工具基于IP地址实现,能够通过目标IP地址来寻找主机名。
  众所周知,Bing是微软公司旗下的旗舰搜索引擎,此前还曾被取名为MSN搜索或Live搜索。
  该搜索工具提供了搜索引擎独有的一个功能,即允许根据IP地址来进行数据搜索,而Bing-ip2hosts正是基于该功能来实现的。
  该工具可以用来发现子域名以及相关域名,而且它还可以帮助研究人员识别托管在共享环境中的站点。
  这项技术非常适用于渗透测试和漏洞挖掘的初期阶段,也就是网络侦察阶段,以收集到更多的信息,并扩展目标的攻击面。
  跟其他网络爬取工具相比,Bing-ip2hosts的不同之处就在于,该工具提供了智能爬取特性,可以最大限度地发现目标主机名。
  功能介绍
  1、智能抓取行为,最大限度地发现主机名。
  2、在用户控制台界面显示爬取进度。
  3、根据IP地址查找子域名和目标主机名。
  4、可以根据主机名或IP地址进行搜索。
  5、带或不带URL前缀输出数据。
  6、以列表或CSV格式输出到文件。
  7、不需要Bing API密钥。
  8、选择搜索语言和范围。
  9、从命令行或文件中指定目标。
  10、轻量级Bash shell脚本,不需要大量依赖项。
  工具运行演示
  Bing提供了搜索引擎的一种特有功能,即允许通过IP地址来进行数据搜索。
  首先,我们访问,然后搜索IP:40.113.200.201,此时搜索引擎应显示相关的结果,如果显示的是空结果,那么我们可以添加一个“.”。
  帮助信息
  广大研究人员可以使用下列命令查看工具帮助信息:
  bing-ip2hostsisaBing.comwebscraperthatdiscoverswebsitesbyIPaddress.  <br style="box-sizing: border-box;" />UseforOSINTanddiscoveringattack-surfaceofpenetrationtesttargets.  <br style="box-sizing: border-box;" />Usage:./bing-ip2hosts[OPTIONS]IP|hostname  <br style="box-sizing: border-box;" />OPTIONSare:  <br style="box-sizing: border-box;" />-oFILE OutputhostnamestoFILE.  <br style="box-sizing: border-box;" />-iFILE InputlistofIPaddressesorhostnamesfromFILE.  <br style="box-sizing: border-box;" />-nNUM StopafterNUMscrapedpagesreturnnonewresults(Default:5).  <br style="box-sizing: border-box;" />-l Selectthelanguageforuseinthesetlangparameter(Default:en-us).  <br style="box-sizing: border-box;" />-m Selectthemarketforuseinthesetmktparameter(Defaultisunset).  <br style="box-sizing: border-box;" />-u Onlydisplayhostnames.DefaultistoincludeURLprefixes.  <br style="box-sizing: border-box;" />-c CSVoutput.OutputstheIPandhostnameoneachline,separatedbyacomma.  <br style="box-sizing: border-box;" />-q Quiet.Disableoutputexceptforfinalresults.  <br style="box-sizing: border-box;" />-tDIR Usethisdirectoryinsteadof/tmp.  <br style="box-sizing: border-box;" />-V Displaytheversionnumberofbing-ip2hostsandexit.<br />
  工具安装依赖组件
  Bing-ip2hosts需要wget才可以正常运行,但该工具在Ubuntu Linux和Kali Linux平台上已经默认安装了。
  在macOS平台上,我们可以使用homebrew来安装wget:
  homebrew install wget
  当然了,我们也可以使用apt在Debian和Ubuntu上安装wget:
  sudo apt install wget
  安装命令
  首先,使用下列命令将项目源码克隆至本地:
  git clone https://github.com/urbanadvent ... s.git
  然后将Bing-ip2hosts的路径地址写到$PATH环境变量中:
  sudo cp ./bing-ip2hosts /usr/local/bin/
  工具兼容性
  Bing-ip2hosts使用了Bash脚本语言,并且支持在下列操作系统中运行:
  UbuntuLinux
  GNUbash,version4.4.20(1)-release(x86_64-pc-linux-gnu)  <br style="box-sizing: border-box;" />Copyright(C)2016FreeSoftwareFoundation,Inc.  <br style="box-sizing: border-box;" />LicenseGPLv3+:GNUGPLversion3orlater  <br style="box-sizing: border-box;" />Thisisfreesoftware;youarefreetochangeandredistributeit.  <br style="box-sizing: border-box;" />ThereisNOWARRANTY,totheextentpermittedbylaw.
  macOS Catalina
  GNUbash,version3.2.57(1)-release(x86_64-apple-darwin19)  <br style="box-sizing: border-box;" />Copyright(C)2007FreeSoftwareFoundation,Inc.<br />
  项目地址
  Bing-ip2hosts:【GitHub传送门】
  地址:
  零基础如何入门网络安全的
  黑客视频教程+进内部群+领工具+靶场---扫码免费领
  
  扫码免费领资料
  
  
  往期内容回顾
   查看全部

  【黑客信息搜集工具】最大限度查找主机名
  大家好!我是每天为大家分享好文的柠檬!与你一起成长~
  有需要体系化黑客渗透视频教程可看文末哦
  
  Bing-ip2hosts
  Bing-ip2hosts是一款针对站点的网络爬虫工具,该工具基于IP地址实现,能够通过目标IP地址来寻找主机名。
  众所周知,Bing是微软公司旗下的旗舰搜索引擎,此前还曾被取名为MSN搜索或Live搜索。
  该搜索工具提供了搜索引擎独有的一个功能,即允许根据IP地址来进行数据搜索,而Bing-ip2hosts正是基于该功能来实现的。
  该工具可以用来发现子域名以及相关域名,而且它还可以帮助研究人员识别托管在共享环境中的站点。
  这项技术非常适用于渗透测试和漏洞挖掘的初期阶段,也就是网络侦察阶段,以收集到更多的信息,并扩展目标的攻击面。
  跟其他网络爬取工具相比,Bing-ip2hosts的不同之处就在于,该工具提供了智能爬取特性,可以最大限度地发现目标主机名。
  功能介绍
  1、智能抓取行为,最大限度地发现主机名。
  2、在用户控制台界面显示爬取进度。
  3、根据IP地址查找子域名和目标主机名。
  4、可以根据主机名或IP地址进行搜索。
  5、带或不带URL前缀输出数据。
  6、以列表或CSV格式输出到文件。
  7、不需要Bing API密钥。
  8、选择搜索语言和范围。
  9、从命令行或文件中指定目标。
  10、轻量级Bash shell脚本,不需要大量依赖项。
  工具运行演示
  Bing提供了搜索引擎的一种特有功能,即允许通过IP地址来进行数据搜索。
  首先,我们访问,然后搜索IP:40.113.200.201,此时搜索引擎应显示相关的结果,如果显示的是空结果,那么我们可以添加一个“.”。
  帮助信息
  广大研究人员可以使用下列命令查看工具帮助信息:
  bing-ip2hostsisaBing.comwebscraperthatdiscoverswebsitesbyIPaddress.  <br style="box-sizing: border-box;" />UseforOSINTanddiscoveringattack-surfaceofpenetrationtesttargets.  <br style="box-sizing: border-box;" />Usage:./bing-ip2hosts[OPTIONS]IP|hostname  <br style="box-sizing: border-box;" />OPTIONSare:  <br style="box-sizing: border-box;" />-oFILE OutputhostnamestoFILE.  <br style="box-sizing: border-box;" />-iFILE InputlistofIPaddressesorhostnamesfromFILE.  <br style="box-sizing: border-box;" />-nNUM StopafterNUMscrapedpagesreturnnonewresults(Default:5).  <br style="box-sizing: border-box;" />-l Selectthelanguageforuseinthesetlangparameter(Default:en-us).  <br style="box-sizing: border-box;" />-m Selectthemarketforuseinthesetmktparameter(Defaultisunset).  <br style="box-sizing: border-box;" />-u Onlydisplayhostnames.DefaultistoincludeURLprefixes.  <br style="box-sizing: border-box;" />-c CSVoutput.OutputstheIPandhostnameoneachline,separatedbyacomma.  <br style="box-sizing: border-box;" />-q Quiet.Disableoutputexceptforfinalresults.  <br style="box-sizing: border-box;" />-tDIR Usethisdirectoryinsteadof/tmp.  <br style="box-sizing: border-box;" />-V Displaytheversionnumberofbing-ip2hostsandexit.<br />
  工具安装依赖组件
  Bing-ip2hosts需要wget才可以正常运行,但该工具在Ubuntu Linux和Kali Linux平台上已经默认安装了。
  在macOS平台上,我们可以使用homebrew来安装wget:
  homebrew install wget
  当然了,我们也可以使用apt在Debian和Ubuntu上安装wget:
  sudo apt install wget
  安装命令
  首先,使用下列命令将项目源码克隆至本地:
  git clone https://github.com/urbanadvent ... s.git
  然后将Bing-ip2hosts的路径地址写到$PATH环境变量中:
  sudo cp ./bing-ip2hosts /usr/local/bin/
  工具兼容性
  Bing-ip2hosts使用了Bash脚本语言,并且支持在下列操作系统中运行:
  UbuntuLinux
  GNUbash,version4.4.20(1)-release(x86_64-pc-linux-gnu)  <br style="box-sizing: border-box;" />Copyright(C)2016FreeSoftwareFoundation,Inc.  <br style="box-sizing: border-box;" />LicenseGPLv3+:GNUGPLversion3orlater  <br style="box-sizing: border-box;" />Thisisfreesoftware;youarefreetochangeandredistributeit.  <br style="box-sizing: border-box;" />ThereisNOWARRANTY,totheextentpermittedbylaw.
  macOS Catalina
  GNUbash,version3.2.57(1)-release(x86_64-apple-darwin19)  <br style="box-sizing: border-box;" />Copyright(C)2007FreeSoftwareFoundation,Inc.<br />
  项目地址
  Bing-ip2hosts:【GitHub传送门】
  地址:
  零基础如何入门网络安全的
  黑客视频教程+进内部群+领工具+靶场---扫码免费领
  
  扫码免费领资料
  
  
  往期内容回顾
  

网站采集工具建议尝试以下几个,必不可少

采集交流优采云 发表了文章 • 0 个评论 • 100 次浏览 • 2022-05-21 19:05 • 来自相关话题

  网站采集工具建议尝试以下几个,必不可少
  网站采集工具建议尝试以下几个,如果想做seo,掌握这些必不可少。1.googleseotoolkit,这个是全球最大的google服务器上面的工具,采集google热度比较高的网站或者是一些关键词,重点就是速度快。2.infinitesearchagency,这个是google官方的关键词采集工具,可以将关键词的热度高的做长尾词,词组等等。
  3.googleartificialintelligenceads,googleai出的采集工具,采集热度比较高的词组或者是网站的话,在搜索引擎中的展现率会很高,网站的排名也会更靠前。
  如果说做seo的话,我有用过这款工具,大家可以看下(懒写链接了),
  试试xx搜索引擎,关键词覆盖200多万,
  现在很多工具都可以采集google的数据,关键是免费版我用到的一个足够多了,其他功能收费版功能都差不多,个人感觉没必要,如果你说的关键词数量是指采集出来200个左右,
  站长宝
  推荐站长宝,采集网站链接信息非常方便,免费版足够用,
  友站工具
  wordpress有免费版,做长尾关键词,打通自媒体平台的话,
  随着互联网的高速发展,seo的工具也是越来越多,但是有关于seo的工具网站,我目前也只能推荐一个“站长宝”,因为对于长尾关键词的seo工具我不是很了解,但是站长宝的采集的网站有250万个,对于长尾关键词的搜索可以查询到网站分类,例如美图软件中第三方平台的美图,相关的黄图网站等,都可以有采集到,反正挺不错的。 查看全部

  网站采集工具建议尝试以下几个,必不可少
  网站采集工具建议尝试以下几个,如果想做seo,掌握这些必不可少。1.googleseotoolkit,这个是全球最大的google服务器上面的工具,采集google热度比较高的网站或者是一些关键词,重点就是速度快。2.infinitesearchagency,这个是google官方的关键词采集工具,可以将关键词的热度高的做长尾词,词组等等。
  3.googleartificialintelligenceads,googleai出的采集工具,采集热度比较高的词组或者是网站的话,在搜索引擎中的展现率会很高,网站的排名也会更靠前。
  如果说做seo的话,我有用过这款工具,大家可以看下(懒写链接了),
  试试xx搜索引擎,关键词覆盖200多万,
  现在很多工具都可以采集google的数据,关键是免费版我用到的一个足够多了,其他功能收费版功能都差不多,个人感觉没必要,如果你说的关键词数量是指采集出来200个左右,
  站长宝
  推荐站长宝,采集网站链接信息非常方便,免费版足够用,
  友站工具
  wordpress有免费版,做长尾关键词,打通自媒体平台的话,
  随着互联网的高速发展,seo的工具也是越来越多,但是有关于seo的工具网站,我目前也只能推荐一个“站长宝”,因为对于长尾关键词的seo工具我不是很了解,但是站长宝的采集的网站有250万个,对于长尾关键词的搜索可以查询到网站分类,例如美图软件中第三方平台的美图,相关的黄图网站等,都可以有采集到,反正挺不错的。

Teemo:域名信息收集及爆破工具

采集交流优采云 发表了文章 • 0 个评论 • 51 次浏览 • 2022-05-20 20:31 • 来自相关话题

  Teemo:域名信息收集及爆破工具
  
  
  项目主页
  简介
  该工具主要有三大模块:
  利用搜索引擎利用第三方站点利用暴力破解基本使用
  查看帮助:
  python teemo.py -h
  枚举指定域名(会使用搜索引擎和第三方站点模块):
  python teemo.py -d example.com
  启用爆破模式:
  python teemo.py -b -d example.com
  将结果保存到指定文件(默认会跟进config.py中的设置保存到以域名命名的文件中):
  python teemo.py -d example.com -o result.txt
  收集域名并扫描指定端口 :
  python teemo.py -d example.com -p 80,443
  参考
  参考以下优秀的工具修改而来
  Thanks for their sharing.
  优缺点
  为什么要修改,相对以上优秀工具有什么优缺点?
  优点:
  使用的搜索引擎和第三方站点更全面,经过实际测试,发现收集的域名会更多。
  添加了代理的支持,像google,ask等可以通过指定代理地址去访问,个人使用google较多,所以这个对我很重要。
  使用搜索引擎的模块,会收集邮箱地址。
  缺点:
  初始版本,单线程,速度慢,bug很多。但后续会持续更新改进。
  相关思维导图
  
  你会喜欢
   查看全部

  Teemo:域名信息收集及爆破工具
  
  
  项目主页
  简介
  该工具主要有三大模块:
  利用搜索引擎利用第三方站点利用暴力破解基本使用
  查看帮助:
  python teemo.py -h
  枚举指定域名(会使用搜索引擎和第三方站点模块):
  python teemo.py -d example.com
  启用爆破模式:
  python teemo.py -b -d example.com
  将结果保存到指定文件(默认会跟进config.py中的设置保存到以域名命名的文件中):
  python teemo.py -d example.com -o result.txt
  收集域名并扫描指定端口 :
  python teemo.py -d example.com -p 80,443
  参考
  参考以下优秀的工具修改而来
  Thanks for their sharing.
  优缺点
  为什么要修改,相对以上优秀工具有什么优缺点?
  优点:
  使用的搜索引擎和第三方站点更全面,经过实际测试,发现收集的域名会更多。
  添加了代理的支持,像google,ask等可以通过指定代理地址去访问,个人使用google较多,所以这个对我很重要。
  使用搜索引擎的模块,会收集邮箱地址。
  缺点:
  初始版本,单线程,速度慢,bug很多。但后续会持续更新改进。
  相关思维导图
  
  你会喜欢
  

网站采集工具的主要作用是什么?如何定义过滤?

采集交流优采云 发表了文章 • 0 个评论 • 90 次浏览 • 2022-05-20 01:02 • 来自相关话题

  网站采集工具的主要作用是什么?如何定义过滤?
  网站采集工具,起到的主要作用就是过滤访问量较小的网站,并且过滤多的页面以及错误页面(这部分页面浏览量比较少,但是内容可能会对搜索引擎不利,所以才需要过滤)。如何过滤,靠平时的经验,遇到该页面就过滤一下,也有可能忽略了一些网站主动提交的页面,导致网站的权重降低。
  网站过滤的多不多,主要看域名规模,然后再看网站内容质量。一般来说,如果是蜘蛛爬的比较多的站,新站,权重又不高的,网站过滤的要多点。如果是权重比较高的网站,且收录也比较高的,网站过滤就不大好过滤了。
  做为站长自己看的话过滤一下也就过滤了。具体看如何定义过滤了。网站过滤看域名权重的高低。某个网站的收录多少与收录量也有很大关系。百度现在已经改革成站长们学习的平台,对站长更加照顾。网站是长期的事情,多看看一些网站,总能在一定程度上帮助自己提高收录,提高排名等。
  大型的网站当然是过滤好的,因为他拥有一定用户数量,并且内容比较优质、做seo必须要做到这些才有价值。小型的站就不需要了,因为小型的网站收录量不会太大,做的时候对用户吸引力不大,而且很多小型的网站主动做的关键词,对于用户搜索来说没有优势。我都是过滤的,每天有新的站点加入就过滤一次,反正页面数量也不会太多,我也没有太大精力。 查看全部

  网站采集工具的主要作用是什么?如何定义过滤?
  网站采集工具,起到的主要作用就是过滤访问量较小的网站,并且过滤多的页面以及错误页面(这部分页面浏览量比较少,但是内容可能会对搜索引擎不利,所以才需要过滤)。如何过滤,靠平时的经验,遇到该页面就过滤一下,也有可能忽略了一些网站主动提交的页面,导致网站的权重降低。
  网站过滤的多不多,主要看域名规模,然后再看网站内容质量。一般来说,如果是蜘蛛爬的比较多的站,新站,权重又不高的,网站过滤的要多点。如果是权重比较高的网站,且收录也比较高的,网站过滤就不大好过滤了。
  做为站长自己看的话过滤一下也就过滤了。具体看如何定义过滤了。网站过滤看域名权重的高低。某个网站的收录多少与收录量也有很大关系。百度现在已经改革成站长们学习的平台,对站长更加照顾。网站是长期的事情,多看看一些网站,总能在一定程度上帮助自己提高收录,提高排名等。
  大型的网站当然是过滤好的,因为他拥有一定用户数量,并且内容比较优质、做seo必须要做到这些才有价值。小型的站就不需要了,因为小型的网站收录量不会太大,做的时候对用户吸引力不大,而且很多小型的网站主动做的关键词,对于用户搜索来说没有优势。我都是过滤的,每天有新的站点加入就过滤一次,反正页面数量也不会太多,我也没有太大精力。

安全小课堂第四十九期【网站安全检测之信息收集类工具】

采集交流优采云 发表了文章 • 0 个评论 • 62 次浏览 • 2022-05-11 14:54 • 来自相关话题

  安全小课堂第四十九期【网站安全检测之信息收集类工具】
  网站安全检测的第一步是最大程度地收集目标系统的信息,这同样也是网站安全检测的关键性步骤。信息的收集和分析伴随着网站安全检测的每一个步骤。作为有着多年的网络安全经验的资深白帽子平时做渗透测试时会使用哪些信息收集类工具呢?JSRC 安全小课堂第四十九期,我们邀请到了花开若相惜、沦沦师傅为简单介绍一下他们常用的信息收集类工具。以及 JSRC 白帽子苦逼司马,DragonEgg,wadcl、iDer、PX1624的讨论。
  讲师:花开若相惜
  讲师简介:
  硬土壳安全CTO,Pax.MacTeam创始人之一,多年渗透测试、安全培训等经验。专注于安全开发、渗透测试、代码审计等领域。
  讲师:沦沦
  讲师简介:
  安全白帽子,某甲方安全研究员,网络尖刀团队核心成员,具备渗透测试、漏洞挖掘等相关经验和技巧。
  
  用于信息收集的工具有哪些?京安小妹
  
  subDomainsBrute、Layer子域名挖掘机、WebRobot、nmap、wyportma、
  python和一双勤劳的双手,常用到的东西都会自己会去用python实现自动化。
  讲师:沦沦、花开若相惜
  白帽子观点:matego
  白帽子观点:跟Sublist3r类似,自动从各种搜索引擎搜索域名的子域名
  白帽子观点:theharverster
  白帽子观点:还有各种指纹识别的工具
  白帽子观点 :人员安全方面,在QQ群搜索,搜索企业名等,想办法混进去群里有可能有意想不到的发现
  
  如果只能推荐三个工具会推荐哪三个?为什么?京安小妹
  
  seay写的Layer子域名挖掘机字典跟速度都挺不错,唯一缺点是每次都要打开虚拟机。
  chrome插件 shodan ip的各种信息,端口信息 mysql redis等等能不能外连一目了然。
  google,你懂的。
  subDomainsBrute、WebRobot、nmap,试用了几个域名收集的还是感觉subDomainsBrute进行收集域名更精准一点重复的业务不会太多,WebRobot收集信息比较全面包含(百度、google和必应的搜索抓取、C段查询、域名暴破等)、nmap扫描端口指纹识别是比较好的。
  讲师:沦沦、花开若相惜
  
  请分别描述一下这三个工具的常见用法。京安小妹
  
  Layer子域名挖掘机 输入好域名,点开始,喝杯咖啡等结果。
  shodan 点击图标 view-hoste-detail 查看详情。
  google :不会什么搜什么、想要什么搜什么,什么google hacker 域名收集啥的大家都懂。subDomainsBrute的使用方法很简单在github下载完,直接写入subDomainsBrute的执行文件都有相关的使用说明,比如:
  --full。
  WebRobot比较简单看了都懂。
  。
  nmap都是必备专用相信都会用 。
  讲师:沦沦、花开若相惜
  
  这三个工具在使用过程中存在什么问题?如何解决?
  京安小妹
  
  在使用过程过确实是有一些不足的地方,比如用subDomainsBrute进行扫描只收集了IP和域名但一些指纹就没进行识别,比如网站的标题和服务还有端口,可以在subDomainsBrute的前提上再进行编写把这几个功能增加上去就更加方便了。
  讲师:沦沦、花开若相惜
  
  企业是否有办法防御这三个工具?需要使用什么样的方法?京安小妹
  
  端口的话可以进行加防火墙规则进行处理,
  然后域名的话一般公开到外网早晚都会被收集到最好的办法就是在上线前就进行全面的安全测试通过之后进行上线。
  讲师:沦沦、花开若相惜
  
  本期JSRC 安全小课堂到此结束。更多内容请期待下期安全小课堂,如果还有你希望出现在安全小课堂内容暂时未出现,也欢迎留言告诉我们。 查看全部

  安全小课堂第四十九期【网站安全检测之信息收集类工具】
  网站安全检测的第一步是最大程度地收集目标系统的信息,这同样也是网站安全检测的关键性步骤。信息的收集和分析伴随着网站安全检测的每一个步骤。作为有着多年的网络安全经验的资深白帽子平时做渗透测试时会使用哪些信息收集类工具呢?JSRC 安全小课堂第四十九期,我们邀请到了花开若相惜、沦沦师傅为简单介绍一下他们常用的信息收集类工具。以及 JSRC 白帽子苦逼司马,DragonEgg,wadcl、iDer、PX1624的讨论。
  讲师:花开若相惜
  讲师简介:
  硬土壳安全CTO,Pax.MacTeam创始人之一,多年渗透测试、安全培训等经验。专注于安全开发、渗透测试、代码审计等领域。
  讲师:沦沦
  讲师简介:
  安全白帽子,某甲方安全研究员,网络尖刀团队核心成员,具备渗透测试、漏洞挖掘等相关经验和技巧。
  
  用于信息收集的工具有哪些?京安小妹
  
  subDomainsBrute、Layer子域名挖掘机、WebRobot、nmap、wyportma、
  python和一双勤劳的双手,常用到的东西都会自己会去用python实现自动化。
  讲师:沦沦、花开若相惜
  白帽子观点:matego
  白帽子观点:跟Sublist3r类似,自动从各种搜索引擎搜索域名的子域名
  白帽子观点:theharverster
  白帽子观点:还有各种指纹识别的工具
  白帽子观点 :人员安全方面,在QQ群搜索,搜索企业名等,想办法混进去群里有可能有意想不到的发现
  
  如果只能推荐三个工具会推荐哪三个?为什么?京安小妹
  
  seay写的Layer子域名挖掘机字典跟速度都挺不错,唯一缺点是每次都要打开虚拟机。
  chrome插件 shodan ip的各种信息,端口信息 mysql redis等等能不能外连一目了然。
  google,你懂的。
  subDomainsBrute、WebRobot、nmap,试用了几个域名收集的还是感觉subDomainsBrute进行收集域名更精准一点重复的业务不会太多,WebRobot收集信息比较全面包含(百度、google和必应的搜索抓取、C段查询、域名暴破等)、nmap扫描端口指纹识别是比较好的。
  讲师:沦沦、花开若相惜
  
  请分别描述一下这三个工具的常见用法。京安小妹
  
  Layer子域名挖掘机 输入好域名,点开始,喝杯咖啡等结果。
  shodan 点击图标 view-hoste-detail 查看详情。
  google :不会什么搜什么、想要什么搜什么,什么google hacker 域名收集啥的大家都懂。subDomainsBrute的使用方法很简单在github下载完,直接写入subDomainsBrute的执行文件都有相关的使用说明,比如:
  --full。
  WebRobot比较简单看了都懂。
  。
  nmap都是必备专用相信都会用 。
  讲师:沦沦、花开若相惜
  
  这三个工具在使用过程中存在什么问题?如何解决?
  京安小妹
  
  在使用过程过确实是有一些不足的地方,比如用subDomainsBrute进行扫描只收集了IP和域名但一些指纹就没进行识别,比如网站的标题和服务还有端口,可以在subDomainsBrute的前提上再进行编写把这几个功能增加上去就更加方便了。
  讲师:沦沦、花开若相惜
  
  企业是否有办法防御这三个工具?需要使用什么样的方法?京安小妹
  
  端口的话可以进行加防火墙规则进行处理,
  然后域名的话一般公开到外网早晚都会被收集到最好的办法就是在上线前就进行全面的安全测试通过之后进行上线。
  讲师:沦沦、花开若相惜
  
  本期JSRC 安全小课堂到此结束。更多内容请期待下期安全小课堂,如果还有你希望出现在安全小课堂内容暂时未出现,也欢迎留言告诉我们。

Machinae:一款信息收集自动化工具

采集交流优采云 发表了文章 • 0 个评论 • 101 次浏览 • 2022-05-06 05:14 • 来自相关话题

  Machinae:一款信息收集自动化工具
  
  Machinae安全情报收集工具
  Machinae这款开源工具可以帮助广大研究人员从各个开放网站/feed收集跟网络安全有关的数据,例如IP地址、域名、URL、电子邮件地址、文件哈希和SSL指纹等等。该工具受到了Automater的启发,旨在从以下四个方面提升原工具的功能:
  1、 源代码:将Automater以Python 3进行重构,提升功能扩展性;
  2、 配置:使用了可读性更强的配置格式-YAML;
  3、 输入:支持JSON格式解析,需编写正则表达式;
  4、 输出:支持额外的输出类型,包括JSON等可选项;
  工具安装
  大家可以使用pip3来安装Machinae:
  pip3 install machinae
  或者,大家也可以直接从本项目的GitHub代码库上将代码克隆至本地:
  pip3 install git+https://github.com/HurricaneLabs/machinae.git
  点击【这里】获取最新版本的工具配置文件,并将其存入/etc/machinae.yml。
  配置文件
  Machinae提供了功能强大的配置整合系统,我们可以直接对系统默认配置文件machinae.yml进行修改来实现配置的更新,通过修改配置文件,我们可以实现整个系统环境中所有用户的配置修改。系统级配置文件位于项目当前目录下,可以使用MACHINAE_CONFIG环境变量来进行设置,或者直接在命令行中使用“-c”或“--config”来配置。当然了,如果你不想更新全局配置文件,你可以使用“--nomerge”选项来禁用该功能。
  你可以在machinae.yml文件中进行下列设置来启用Fortinet Category站点:
  fortinet_classify:default: true
  或使用下列命令禁用类似Virus Total pDNS这样的站点:
  vt_ip:default: falsevt_domain:default: false
  工具使用
  Machinae的使用跟Automater非常相似:
  usage:machinae [-h] [-c CONFIG] [--nomerge] [-d DELAY] [-f FILE] [-i INFILE] [-v] [-o {D,J,N,S}] [-O{ipv4,ipv6,fqdn,email,sslfp,hash,url}] [-q] [-s SITES] [-a AUTH] [-HHTTP_PROXY] [--dump-config | --detect-otype] ...
  1、 使用“-c/--config”和 “--nomerge”选项来查看命令细节;
  2、 Machinae支持“-d/--delay”选项,这个跟Automater类似,但Machinae默认使用参数值为“0”。
  3、 Machinae的输出由下列两个参数控制:
  “-o“控制输出格式,可以使用下列命令实现控制:
  (1)“N“为默认标准输出;
  (2)“D“为默认标准输出格式,但“.”字符会被替换;
  (3)“J“为JSON输出;
  “-f/--file“指定输出文件的写入位置,默认“-”为stdout。
  4、 Machinae还支持使用“-H”或“--http-proxy”命令行参数来设置HTTP代理。
  数据源
  Machinae支持以下数据来源(更多数据源正在添加中…):
  IPVoid
  URLVoid
  URLUnshortener ()
  Malc0de
  SANS
  FreeGeoIP(freegeoip.io)
  FortinetCategory
  VirusTotalpDNS (通过网络爬虫)
  VirusTotalpDNS (通过 JSONAPI)
  VirusTotalURL Report (通过 JSON API)
  VirusTotalFile Report (通过 JSON API)
  ReputationAuthority
  ThreatExpert
  VxVault
  ProjectHoneypot
  McAfee 威胁情报
  StopForumSpam
  CymruMHR
  ICSICertificate Notary
  TotalHash(默认禁用)
  DomainToolsParsed Whois (需要 API 密钥)
  DomainToolsReverse Whois (需要 API 密钥)
  DomainToolsReputation
  IPWHOIS (实用 RIRREST 接口)
  HackedIP
  MetadefenderCloud (需要 API 密钥)
  GreyNoise(需要 API 密钥)
  IBMXForce (需要 API 密钥) 查看全部

  Machinae:一款信息收集自动化工具
  
  Machinae安全情报收集工具
  Machinae这款开源工具可以帮助广大研究人员从各个开放网站/feed收集跟网络安全有关的数据,例如IP地址、域名、URL、电子邮件地址、文件哈希和SSL指纹等等。该工具受到了Automater的启发,旨在从以下四个方面提升原工具的功能:
  1、 源代码:将Automater以Python 3进行重构,提升功能扩展性;
  2、 配置:使用了可读性更强的配置格式-YAML;
  3、 输入:支持JSON格式解析,需编写正则表达式;
  4、 输出:支持额外的输出类型,包括JSON等可选项;
  工具安装
  大家可以使用pip3来安装Machinae:
  pip3 install machinae
  或者,大家也可以直接从本项目的GitHub代码库上将代码克隆至本地:
  pip3 install git+https://github.com/HurricaneLabs/machinae.git
  点击【这里】获取最新版本的工具配置文件,并将其存入/etc/machinae.yml。
  配置文件
  Machinae提供了功能强大的配置整合系统,我们可以直接对系统默认配置文件machinae.yml进行修改来实现配置的更新,通过修改配置文件,我们可以实现整个系统环境中所有用户的配置修改。系统级配置文件位于项目当前目录下,可以使用MACHINAE_CONFIG环境变量来进行设置,或者直接在命令行中使用“-c”或“--config”来配置。当然了,如果你不想更新全局配置文件,你可以使用“--nomerge”选项来禁用该功能。
  你可以在machinae.yml文件中进行下列设置来启用Fortinet Category站点:
  fortinet_classify:default: true
  或使用下列命令禁用类似Virus Total pDNS这样的站点:
  vt_ip:default: falsevt_domain:default: false
  工具使用
  Machinae的使用跟Automater非常相似:
  usage:machinae [-h] [-c CONFIG] [--nomerge] [-d DELAY] [-f FILE] [-i INFILE] [-v] [-o {D,J,N,S}] [-O{ipv4,ipv6,fqdn,email,sslfp,hash,url}] [-q] [-s SITES] [-a AUTH] [-HHTTP_PROXY] [--dump-config | --detect-otype] ...
  1、 使用“-c/--config”和 “--nomerge”选项来查看命令细节;
  2、 Machinae支持“-d/--delay”选项,这个跟Automater类似,但Machinae默认使用参数值为“0”。
  3、 Machinae的输出由下列两个参数控制:
  “-o“控制输出格式,可以使用下列命令实现控制:
  (1)“N“为默认标准输出;
  (2)“D“为默认标准输出格式,但“.”字符会被替换;
  (3)“J“为JSON输出;
  “-f/--file“指定输出文件的写入位置,默认“-”为stdout。
  4、 Machinae还支持使用“-H”或“--http-proxy”命令行参数来设置HTTP代理。
  数据源
  Machinae支持以下数据来源(更多数据源正在添加中…):
  IPVoid
  URLVoid
  URLUnshortener ()
  Malc0de
  SANS
  FreeGeoIP(freegeoip.io)
  FortinetCategory
  VirusTotalpDNS (通过网络爬虫)
  VirusTotalpDNS (通过 JSONAPI)
  VirusTotalURL Report (通过 JSON API)
  VirusTotalFile Report (通过 JSON API)
  ReputationAuthority
  ThreatExpert
  VxVault
  ProjectHoneypot
  McAfee 威胁情报
  StopForumSpam
  CymruMHR
  ICSICertificate Notary
  TotalHash(默认禁用)
  DomainToolsParsed Whois (需要 API 密钥)
  DomainToolsReverse Whois (需要 API 密钥)
  DomainToolsReputation
  IPWHOIS (实用 RIRREST 接口)
  HackedIP
  MetadefenderCloud (需要 API 密钥)
  GreyNoise(需要 API 密钥)
  IBMXForce (需要 API 密钥)

Pigat:一款被动信息收集聚合工具

采集交流优采云 发表了文章 • 0 个评论 • 67 次浏览 • 2022-05-06 05:12 • 来自相关话题

  Pigat:一款被动信息收集聚合工具
  0x00 前言
  Pigat即Passive Intelligence Gathering Aggregation Tool,翻译过来就是被动信息收集聚合工具,既然叫聚合工具,也就是说该工具将多款被动信息收集工具结合在了一起,进而提高了平时信息收集的效率。
  早在半个月前便萌生了开发这个工具的想法,但是一直没有时间,正好最近有时间了,就简单写一下。
  因为我没有太多的开发经验,所以这款工具难免存在需要改进的地方,因此希望各位大佬能够多多反馈这款工具存在的问题,一起完善这个工具。
  0x01 工具原理及功能概述
  这款工具的原理很简单,用户输入目标url,再利用爬虫获取相关被动信息收集网站关于该url的信息,最后回显出来。
  目前该工具具备8个功能,原该工具具备7个功能,分别为收集目标的资产信息、CMS信息、DNS信息、备案信息、IP地址、子域名信息、whois信息,现加入第8个功能:如果在程序中两次IP查询目标URL的结果一致,那么查询该IP的端口,即端口查询功能。
  0x02 工具简单上手使用1、查看帮助信息
  # python pigat.py -h
  
  2、指定url进行信息获取
  如果只指定url这一个参数,没有指定其他参数,则默认获取该url的所有信息
  # python pigat.py -u teamssix.com
  
  
  3、指定url进行单项信息获取
  # python pigat.py -u baidu.com --assert
  
  4、指定url进行多项信息获取
  # python pigat.py -u teamssix.com --ip --cms
  
  0x03 工具获取
  关于此工具的下载地址可在个人公众号(TeamsSix)回复“pigta”获取。 查看全部

  Pigat:一款被动信息收集聚合工具
  0x00 前言
  Pigat即Passive Intelligence Gathering Aggregation Tool,翻译过来就是被动信息收集聚合工具,既然叫聚合工具,也就是说该工具将多款被动信息收集工具结合在了一起,进而提高了平时信息收集的效率。
  早在半个月前便萌生了开发这个工具的想法,但是一直没有时间,正好最近有时间了,就简单写一下。
  因为我没有太多的开发经验,所以这款工具难免存在需要改进的地方,因此希望各位大佬能够多多反馈这款工具存在的问题,一起完善这个工具。
  0x01 工具原理及功能概述
  这款工具的原理很简单,用户输入目标url,再利用爬虫获取相关被动信息收集网站关于该url的信息,最后回显出来。
  目前该工具具备8个功能,原该工具具备7个功能,分别为收集目标的资产信息、CMS信息、DNS信息、备案信息、IP地址、子域名信息、whois信息,现加入第8个功能:如果在程序中两次IP查询目标URL的结果一致,那么查询该IP的端口,即端口查询功能。
  0x02 工具简单上手使用1、查看帮助信息
  # python pigat.py -h
  
  2、指定url进行信息获取
  如果只指定url这一个参数,没有指定其他参数,则默认获取该url的所有信息
  # python pigat.py -u teamssix.com
  
  
  3、指定url进行单项信息获取
  # python pigat.py -u baidu.com --assert
  
  4、指定url进行多项信息获取
  # python pigat.py -u teamssix.com --ip --cms
  
  0x03 工具获取
  关于此工具的下载地址可在个人公众号(TeamsSix)回复“pigta”获取。

一款针对网站的网络侦察和信息收集工具

采集交流优采云 发表了文章 • 0 个评论 • 55 次浏览 • 2022-05-06 02:14 • 来自相关话题

  一款针对网站的网络侦察和信息收集工具
  该脚本使用了“Sublist3r”项目来执行子域名扫描任务。
  项目地址:【GitHub传送门】
  该脚本使用了“waybacktool”项目来检测waybackmachine。
  项目地址:【GitHub传送门】
  除此之外,该工具还能够在扫描一个纯JS实现的网站时,自动激活JS,并且支持添加Dockerfile。
  功能介绍工具安装&配置
  首先,广大用户需要使用下列命令将该项目源码克隆至本地:
  git clone https://github.com/c0dejump/HawkScan.git
  接下来,使用下列命令完成工具依赖组件的安装配置:
  pip(3) install -r requirements.txt
  如果pip3命令执行出现问题的话,可以尝试使用下列命令:
  sudo python3 -m pip install -r requirements.txt
  如果在安装“dryscrape”库的过程中遇到问题,请参考这篇【文档】解决。
  工具使用
  usage: hawkscan.py [-h] [-u URL] [-w WORDLIST] [-s SUBDOMAINS] [-t THREAD] [-a USER_AGENT] [--redirect] [-r] [-p PREFIX] [-o OUTPUT] [--cookie COOKIE_] [--exclude EXCLUDE] [--timesleep TS] [--auto]<br /><br />optional arguments:<br /><br /> -h, --help 显示帮助信息和退出<br /><br /> -u URL 待扫描的URL地址[必须]<br /><br /> -w WORDLIST 用于URL模糊测试的字典,默认为dico.txt<br /><br /> -s SUBDOMAINS 子域名扫描<br /><br /> -t THREAD URL模糊测试所使用的线程数量,默认为20<br /><br /> -a USER_AGENT 选择user-agent<br /><br /> --redirect 设置扫描重定向响应 (301/302)<br /><br /> -r 递归目录/文件<br /><br /> -p PREFIX 在字典中添加扫描前缀<br /><br /> -o OUTPUT 将扫描结果输出至site_scan.txt<br /><br /> -b 添加一个备份文件扫描,例如'exemple.com/~exemple/, exemple.com/ex.php.bak...'<br /><br /> -H HEADER_ 修改HEADER<br /><br /> --exclude EXCLUDE 通过定义一个页面或响应码状态类型来排除某个页面<br /><br /> --timesleep TS 如果扫描过程中目标站点不稳定,可以使用timesleep/rate-limit选项<br /><br /> --auto 根据目标站点响应状态自动增加扫描线程,最大为30<br /><br /> --update 工具自动更新
  使用样例基础使用:
  使用重定向:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --redirect
  添加备份文件扫描:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 -b
  排除指定的扫描页面:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --exclude https://www.exemple.com/profile.php?id=1
  排除响应码:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --exclude 403
  项目地址
  HawkScan:【GitHub传送门】 查看全部

  一款针对网站的网络侦察和信息收集工具
  该脚本使用了“Sublist3r”项目来执行子域名扫描任务。
  项目地址:【GitHub传送门】
  该脚本使用了“waybacktool”项目来检测waybackmachine。
  项目地址:【GitHub传送门】
  除此之外,该工具还能够在扫描一个纯JS实现的网站时,自动激活JS,并且支持添加Dockerfile。
  功能介绍工具安装&配置
  首先,广大用户需要使用下列命令将该项目源码克隆至本地:
  git clone https://github.com/c0dejump/HawkScan.git
  接下来,使用下列命令完成工具依赖组件的安装配置:
  pip(3) install -r requirements.txt
  如果pip3命令执行出现问题的话,可以尝试使用下列命令:
  sudo python3 -m pip install -r requirements.txt
  如果在安装“dryscrape”库的过程中遇到问题,请参考这篇【文档】解决。
  工具使用
  usage: hawkscan.py [-h] [-u URL] [-w WORDLIST] [-s SUBDOMAINS] [-t THREAD] [-a USER_AGENT] [--redirect] [-r] [-p PREFIX] [-o OUTPUT] [--cookie COOKIE_] [--exclude EXCLUDE] [--timesleep TS] [--auto]<br /><br />optional arguments:<br /><br /> -h, --help 显示帮助信息和退出<br /><br /> -u URL 待扫描的URL地址[必须]<br /><br /> -w WORDLIST 用于URL模糊测试的字典,默认为dico.txt<br /><br /> -s SUBDOMAINS 子域名扫描<br /><br /> -t THREAD URL模糊测试所使用的线程数量,默认为20<br /><br /> -a USER_AGENT 选择user-agent<br /><br /> --redirect 设置扫描重定向响应 (301/302)<br /><br /> -r 递归目录/文件<br /><br /> -p PREFIX 在字典中添加扫描前缀<br /><br /> -o OUTPUT 将扫描结果输出至site_scan.txt<br /><br /> -b 添加一个备份文件扫描,例如'exemple.com/~exemple/, exemple.com/ex.php.bak...'<br /><br /> -H HEADER_ 修改HEADER<br /><br /> --exclude EXCLUDE 通过定义一个页面或响应码状态类型来排除某个页面<br /><br /> --timesleep TS 如果扫描过程中目标站点不稳定,可以使用timesleep/rate-limit选项<br /><br /> --auto 根据目标站点响应状态自动增加扫描线程,最大为30<br /><br /> --update 工具自动更新
  使用样例基础使用:
  使用重定向:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --redirect
  添加备份文件扫描:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 -b
  排除指定的扫描页面:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --exclude https://www.exemple.com/profile.php?id=1
  排除响应码:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --exclude 403
  项目地址
  HawkScan:【GitHub传送门】

WIG - Web应用程序信息收集工具

采集交流优采云 发表了文章 • 0 个评论 • 117 次浏览 • 2022-05-06 02:11 • 来自相关话题

  WIG - Web应用程序信息收集工具
  
  
  WIG(WebApp Information Gatherer)是一个Web应用程序信息收集工具,可以识别众多内容管理系统和其他管理应用程序。
  应用程序指纹识别基于校验和和不同版本的CMSes的已知文件的字符串匹配。这导致为每个检测到的CMS及其版本计算得分。每个检测到的CMS都会与最可能的版本一起显示。分数计算基于权重和给定校验和的“命中”数量。
  WIG还试图根据“服务器”和“x-powered-by”标头猜测服务器上的操作系统。WIG中包含一个包含不同操作系统的已知头值的数据库,它允许WIG猜测Microsoft Windows版本和Linux发行版和版本。
  注意:它需要Python 3。
  用法:
  wig.py [-h] [-l INPUT_FILE] [-q] [-n STOP_AFTER] [-a] [-m] [-u] [-d] [-t THREADS] [--no_cache_load] [--no_cache_save] [-N]
  [--verosity] [--proxy PROXY] [-w OUTPUT_FILE]
  [URL/]
  WebApp信息收集器
  位置参数:
  URL 要扫描的网址,例如
  可选参数:-h, -help显示此帮助消息并退出
  -l INPUT_FILE带网址的文件,每行一个。
  -q 将假发设置为在运行期间不提示用户输入
  -n STOP_AFTER检测到此数量的CMS后停止。
  默认:
  -a 在检测到第一个CMS后不要停止
  -m 在没有提出更多请求的情况下更难找到匹配项
  -u 用户代理在请求中使用
  -d 禁用子域搜索
  -t THREADS要使用的线程数
  --no_cache_load不加载缓存的响应
  --no_cache_save不保存缓存供以后使用
  -N --no_cache_load和--no_cache_save的快捷方式
  --verbosity,-v增加详细程度。多次使用以获取更多信息
  --proxy PROXY隧道通过代理(格式:localhost:8080)
  -w OUTPUT_FILE要将结果转储到(JSON)的文件
  WIG的默认行为是识别CMS,并在CMS的版本检测后退出。这样做是为了限制发送到目标服务器的流量。通过设置'-a'标志可以覆盖此行为,在这种情况下,假发将测试所有已知指纹。由于某些应用程序配置不使用文件和资源的默认位置,因此可以使假发获取在扫描期间遇到的所有静态资源。这是通过'-c'选项完成的。'-m'选项针对所有提取的URL测试所有指纹,如果默认位置已更改,这将非常有用。
  下载地址:
   查看全部

  WIG - Web应用程序信息收集工具
  
  
  WIG(WebApp Information Gatherer)是一个Web应用程序信息收集工具,可以识别众多内容管理系统和其他管理应用程序。
  应用程序指纹识别基于校验和和不同版本的CMSes的已知文件的字符串匹配。这导致为每个检测到的CMS及其版本计算得分。每个检测到的CMS都会与最可能的版本一起显示。分数计算基于权重和给定校验和的“命中”数量。
  WIG还试图根据“服务器”和“x-powered-by”标头猜测服务器上的操作系统。WIG中包含一个包含不同操作系统的已知头值的数据库,它允许WIG猜测Microsoft Windows版本和Linux发行版和版本。
  注意:它需要Python 3。
  用法:
  wig.py [-h] [-l INPUT_FILE] [-q] [-n STOP_AFTER] [-a] [-m] [-u] [-d] [-t THREADS] [--no_cache_load] [--no_cache_save] [-N]
  [--verosity] [--proxy PROXY] [-w OUTPUT_FILE]
  [URL/]
  WebApp信息收集器
  位置参数:
  URL 要扫描的网址,例如
  可选参数:-h, -help显示此帮助消息并退出
  -l INPUT_FILE带网址的文件,每行一个。
  -q 将假发设置为在运行期间不提示用户输入
  -n STOP_AFTER检测到此数量的CMS后停止。
  默认:
  -a 在检测到第一个CMS后不要停止
  -m 在没有提出更多请求的情况下更难找到匹配项
  -u 用户代理在请求中使用
  -d 禁用子域搜索
  -t THREADS要使用的线程数
  --no_cache_load不加载缓存的响应
  --no_cache_save不保存缓存供以后使用
  -N --no_cache_load和--no_cache_save的快捷方式
  --verbosity,-v增加详细程度。多次使用以获取更多信息
  --proxy PROXY隧道通过代理(格式:localhost:8080)
  -w OUTPUT_FILE要将结果转储到(JSON)的文件
  WIG的默认行为是识别CMS,并在CMS的版本检测后退出。这样做是为了限制发送到目标服务器的流量。通过设置'-a'标志可以覆盖此行为,在这种情况下,假发将测试所有已知指纹。由于某些应用程序配置不使用文件和资源的默认位置,因此可以使假发获取在扫描期间遇到的所有静态资源。这是通过'-c'选项完成的。'-m'选项针对所有提取的URL测试所有指纹,如果默认位置已更改,这将非常有用。
  下载地址:
  

一款通过LDAP实现的活动目录信息收集工具

采集交流优采云 发表了文章 • 0 个评论 • 61 次浏览 • 2022-05-05 09:27 • 来自相关话题

  一款通过LDAP实现的活动目录信息收集工具
  
  LDAPDomainDump介绍
  LDAPDomainDump是一款通过LDAP实现的活动目录信息收集工具。在一个活动目录域中,任何一名认证用户都可以通过LDAP来获取大量有趣的信息。因此,在网络侦查阶段的信息收集过程中,LDAP就变成了一个非常“有价值”的协议了。
  但问题就在于,一般通过LDAP导出的数据并非可读格式,而ldapdomaindump这款工具正好可以解决这个问题。它可以通过LDAP收集和解析数据,并将其输出为人类可读的HTML格式以及机器可读的JSON和CSV/TSV格式。
  该工具的设计意图:
  1、快速查看目标域中的所有用户/组/计算机/策略。
  2、通过用户名和密码完成认证(要求ldap3>= 1.3.1)。
  3、可以使用现有的认证链接与LDAP服务进行交互。
  工具将会输出多个包含目标域信息的概述对象:
  1、domain_groups: 目标域的组列表
  2、domain_users: 目标域的用户列表
  3、domain_computers: 目标域的计算机账号列表
  4、domain_policy: 域策略,例如是否需要密码等
  5、domain_trusts: 传入和传出域属性以及是否受信任
  以及两个分组文件:
  1、domain_users_by_group: 每一个组中的域用户成员
  2、domain_computers_by_os:根据操作系统对域计算机分类
  依赖组件
  1、要求ldap3> 2.0
  2、dnspython
  工具安装
  上述的工具依赖组件可以通过下列命令完成安装:
  pip install ldap3 dnspython
  我们可以使用下列命令从该项目的git源直接安装ldapdomaindump包:
  python setup.py install
  或者直接使用pip命令安装最新的发布版本呢:
  pip install ldapdomaindump
  工具使用
  总共有下列三种工具使用方法:
  1、直接运行“pythonldapdomaindump.py”
  2、安装后,运行“python -mldapdomaindump”
  3、安装后,运行“ldapdomaindump”
  使用-h参数查看工具的帮助菜单:
  usage:ldapdomaindump.py [-h] [-u USERNAME] [-p PASSWORD] [-at {NTLM,SIMPLE}] [-o DIRECTORY] [--no-html][--no-json] [--no-grep] [--grouped-json] [-dDELIMITER] [-r] [-n DNS_SERVER] [-m] HOSTNAME Domaininformation dumper via LDAP. Dumps users/computers/groups and OS/membershipinformation to HTML/JSON/greppable output. Required options: HOSTNAME Hostname/ip or ldap://host:portconnection string to connect to (useldaps:// to use SSL) Main options: -h, --help show this help message and exit -u USERNAME, --user USERNAME DOMAIN\username forauthentication, leave empty for anonymousauthentication -p PASSWORD, --password PASSWORD Password or LM:NTLM hash, willprompt if not specified -at {NTLM,SIMPLE}, --authtype {NTLM,SIMPLE} Authentication type(NTLM or SIMPLE, default: NTLM) Output options: -o DIRECTORY, --outdir DIRECTORY Directory in which thedump will be saved (default: current) --no-html Disable HTML output --no-json Disable JSON output --no-grep Disable Greppable output --grouped-json Also write json files for grouped files(default: disabled) -d DELIMITER, --delimiter DELIMITER Field delimiter forgreppable output (default: tab) Miscoptions: -r, --resolve Resolve computer hostnames (might takea while and cause high traffic onlarge networks) -n DNS_SERVER, --dns-server DNS_SERVER Use custom DNS resolverinstead of system DNS (try a domain controller IP) -m, --minimal Only query minimal set of attributesto limit memmory Usage<br />
  工具选项
  1、认证选项(Authentication):大多数活动目录服务器都支持NTLM认证,针对少数特例,可以使用—authtype SIMPLE。
  2、输出格式(Output formats):工具的默认输出格式为HTML和JSON。
  3、DNS解析(DNS resolving):-r选项可以决定是否需要将计算机的DNSHostName属性解析为IPv4地址。
  4、网络占用和内存使用:默认配置下,ldapdomaindump可以尝试将读取到的每一个属性参数写入磁盘中的.json文件,但此时可能会增加网络和内存占用量,我们可以使用—minimal选项来调整。
  项目地址
  LDAPDomainDump:【GitHub传送门】 查看全部

  一款通过LDAP实现的活动目录信息收集工具
  
  LDAPDomainDump介绍
  LDAPDomainDump是一款通过LDAP实现的活动目录信息收集工具。在一个活动目录域中,任何一名认证用户都可以通过LDAP来获取大量有趣的信息。因此,在网络侦查阶段的信息收集过程中,LDAP就变成了一个非常“有价值”的协议了。
  但问题就在于,一般通过LDAP导出的数据并非可读格式,而ldapdomaindump这款工具正好可以解决这个问题。它可以通过LDAP收集和解析数据,并将其输出为人类可读的HTML格式以及机器可读的JSON和CSV/TSV格式。
  该工具的设计意图:
  1、快速查看目标域中的所有用户/组/计算机/策略。
  2、通过用户名和密码完成认证(要求ldap3>= 1.3.1)。
  3、可以使用现有的认证链接与LDAP服务进行交互。
  工具将会输出多个包含目标域信息的概述对象:
  1、domain_groups: 目标域的组列表
  2、domain_users: 目标域的用户列表
  3、domain_computers: 目标域的计算机账号列表
  4、domain_policy: 域策略,例如是否需要密码等
  5、domain_trusts: 传入和传出域属性以及是否受信任
  以及两个分组文件:
  1、domain_users_by_group: 每一个组中的域用户成员
  2、domain_computers_by_os:根据操作系统对域计算机分类
  依赖组件
  1、要求ldap3> 2.0
  2、dnspython
  工具安装
  上述的工具依赖组件可以通过下列命令完成安装:
  pip install ldap3 dnspython
  我们可以使用下列命令从该项目的git源直接安装ldapdomaindump包:
  python setup.py install
  或者直接使用pip命令安装最新的发布版本呢:
  pip install ldapdomaindump
  工具使用
  总共有下列三种工具使用方法:
  1、直接运行“pythonldapdomaindump.py”
  2、安装后,运行“python -mldapdomaindump”
  3、安装后,运行“ldapdomaindump”
  使用-h参数查看工具的帮助菜单:
  usage:ldapdomaindump.py [-h] [-u USERNAME] [-p PASSWORD] [-at {NTLM,SIMPLE}] [-o DIRECTORY] [--no-html][--no-json] [--no-grep] [--grouped-json] [-dDELIMITER] [-r] [-n DNS_SERVER] [-m] HOSTNAME Domaininformation dumper via LDAP. Dumps users/computers/groups and OS/membershipinformation to HTML/JSON/greppable output. Required options: HOSTNAME Hostname/ip or ldap://host:portconnection string to connect to (useldaps:// to use SSL) Main options: -h, --help show this help message and exit -u USERNAME, --user USERNAME DOMAIN\username forauthentication, leave empty for anonymousauthentication -p PASSWORD, --password PASSWORD Password or LM:NTLM hash, willprompt if not specified -at {NTLM,SIMPLE}, --authtype {NTLM,SIMPLE} Authentication type(NTLM or SIMPLE, default: NTLM) Output options: -o DIRECTORY, --outdir DIRECTORY Directory in which thedump will be saved (default: current) --no-html Disable HTML output --no-json Disable JSON output --no-grep Disable Greppable output --grouped-json Also write json files for grouped files(default: disabled) -d DELIMITER, --delimiter DELIMITER Field delimiter forgreppable output (default: tab) Miscoptions: -r, --resolve Resolve computer hostnames (might takea while and cause high traffic onlarge networks) -n DNS_SERVER, --dns-server DNS_SERVER Use custom DNS resolverinstead of system DNS (try a domain controller IP) -m, --minimal Only query minimal set of attributesto limit memmory Usage<br />
  工具选项
  1、认证选项(Authentication):大多数活动目录服务器都支持NTLM认证,针对少数特例,可以使用—authtype SIMPLE。
  2、输出格式(Output formats):工具的默认输出格式为HTML和JSON。
  3、DNS解析(DNS resolving):-r选项可以决定是否需要将计算机的DNSHostName属性解析为IPv4地址。
  4、网络占用和内存使用:默认配置下,ldapdomaindump可以尝试将读取到的每一个属性参数写入磁盘中的.json文件,但此时可能会增加网络和内存占用量,我们可以使用—minimal选项来调整。
  项目地址
  LDAPDomainDump:【GitHub传送门】

网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态

采集交流优采云 发表了文章 • 0 个评论 • 156 次浏览 • 2022-05-03 17:46 • 来自相关话题

  网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态
  ------------------------------------------------------
  免责声明:仅可用于研究学习使用,切勿用于非法犯罪活动,未经双方同意攻击目标是非法的.
  ---------------------------------------------------------------
  一款适用于以HW行动/红队/渗透测试团队为场景的移动端(Android、iOS、WEB、H5、静态网站)信息收集扫描工具,可以帮助渗透测试工程师、攻击队成员、红队成员快速收集到移动端或者静态WEB站点中关键的资产信息并提供基本的信息输出,如:Title、Domain、CDN、指纹信息、状态信息等。
  适用场景功能介绍:
  
  详细操作使用见: 查看全部

  网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态
  ------------------------------------------------------
  免责声明:仅可用于研究学习使用,切勿用于非法犯罪活动,未经双方同意攻击目标是非法的.
  ---------------------------------------------------------------
  一款适用于以HW行动/红队/渗透测试团队为场景的移动端(Android、iOS、WEB、H5、静态网站)信息收集扫描工具,可以帮助渗透测试工程师、攻击队成员、红队成员快速收集到移动端或者静态WEB站点中关键的资产信息并提供基本的信息输出,如:Title、Domain、CDN、指纹信息、状态信息等。
  适用场景功能介绍:
  
  详细操作使用见:

渗透测试-信息收集

采集交流优采云 发表了文章 • 0 个评论 • 81 次浏览 • 2022-05-02 16:14 • 来自相关话题

  渗透测试-信息收集
  前言
  信息收集作为渗透测试的重要组成部分。这个过程所需要收集的信息包括端口信息、业务信息、域名信息、DNS信息等等。下面会分步骤一一详细介绍,并且介绍比较好用的信息收集工具。
  端口信息收集
  
  所谓的端口,就好像是门牌号一样,客户端可以通过ip地址找到对应的服务器端,但是服务器端是有很多端口的,每个应用程序对应一个端口号,通过类似门牌号的端口号,客户端才能真正访问到该服务器。为了对端口进行区分,将每个端口进行了编号,这就是端口号。
  NMAP
  nmap是一个网络连接端扫描软件,用来扫描网上电脑开放的网络连接端。确定哪些服务运行在哪些连接端,并且推断计算机哪些服务是开放的。它是网络管理员必用的软件之一,以及用以评估网络系统安全。
  在kali使用命令nmap -sS-p 1-50000 -v 127.0.0.1,代表扫描目标127.0.0.1的1到50000端口。从结果上看,只有22端口开放。
  
  
  网站目录信息收集
  
  在渗透测试中,扫描网站目录结构,可以是否存在遍历目录漏洞,或者敏感文件泄漏,比如php探针。
  dirsearch
  它是一个python开发的目录扫描工具。目的是扫描网站的敏感文件和目录,进行详细的信息收集,从而找到突破口。
  优点:多线程、可保持连接、支持多种后缀(-e|–extensions asp,php)、生成报告(纯文本,JSON)、启发式检测无效的网页、递归的暴力扫描、支持HTTP代理、用户代理随机化、批量处理、请求延迟等等。
  使用:python dirsearch.py -u 。使用之前请确保已安装python环境,dirsearch自带的字典在db目录下。常用的参数:
  -u 指定网址
  -e 指定网站语言
  -w 指定字典
  -r 递归目录(跑出目录后,继续跑目录下面的目录)
  --random-agents 使用随机UA
  
  御剑yjdirscan
  功能特点:
  1.根据状态码探测200,探测出网站真实存在的路径文件。
  2.扫描线程自定义,用户可根据自身的扫描需要和电脑的配置来设置调节扫描线程。
  3.自定义选择字典,可以根据扫描网站的特点自行添加字典。还可以导入用户自己的字典,不使用御剑自带字典,使得功能拓展性更强,扫描功能可进一步增强。
  
  dirmap
  这是一款web目录扫描工具。
  1. 支持n个target\*n个payload并发
  2. 支持递归扫描
  3. 支持自定义需要递归扫描的状态码
  4. 支持(单|多)字典扫描
  5. 支持自定义字符集爆破
  6. 支持爬虫动态字典扫描
  7. 支持自定义标签fuzz目标url
  8. 自定义请求User-Agent、随机延时、请求超时时间、请求代理
  9. 自定义正则表达式匹配假性404页面
  10. 自定义要处理的响应状态码
  11. 自定义跳过大小为x的页面
  12. 自定义显示content-type、显示页面大小,按域名去重复保存结果
  
  
  子域名收集
  
  子域名,是顶级域名(.com、.cn、.top)的下一级,域名整体包括两个“.”或包括一个“/”。如:百度顶级域名为。其下有、、等子域名。收集子域名可以很大程度知道目标所拥有的网站等资产信息。
  OneForAll
  通常,一台服务器上有很多个站点,这些站点之间没有必然的联系,是相互独立的,使用的是不同的域名(甚至端口都不同),但是它们却共存在一台服务器上。如果我们要对某一个站点进行直接渗透无法突破时,那么我们可以对同服务器的其他站点进行渗透,只要能发现一个缺口,就能渗透服务器上的整个站点。此时,我们需要进行子域名收集,而OneForAll是一款功能强大的子域名收集工具。
  安装依赖,pip install -r requirements.txt。
  使用命令:对于单个目标,python oneforall.py run。
  对于多个目标,可把目标保留在txt文件。
  再调用命令pythononeforall.py --targets ./example.txt run。
  结果会自动保存在/root/OneForAll/oneforall/results/里面
  
  
  Layer子域名挖掘机
  Layer子域名挖掘机是一款域名查询工具,可提供网站子域名查询服务;拥有简洁的界面、简单的操作模式,支持服务接口、暴力搜索、同服挖掘三种模式,支持打开网站、复制域名、复制IP、复制CDN、导出域名、导出IP、导出域名+IP、导出域名+IP+WEB服务器以及导出存活网站。
   查看全部

  渗透测试-信息收集
  前言
  信息收集作为渗透测试的重要组成部分。这个过程所需要收集的信息包括端口信息、业务信息、域名信息、DNS信息等等。下面会分步骤一一详细介绍,并且介绍比较好用的信息收集工具。
  端口信息收集
  
  所谓的端口,就好像是门牌号一样,客户端可以通过ip地址找到对应的服务器端,但是服务器端是有很多端口的,每个应用程序对应一个端口号,通过类似门牌号的端口号,客户端才能真正访问到该服务器。为了对端口进行区分,将每个端口进行了编号,这就是端口号。
  NMAP
  nmap是一个网络连接端扫描软件,用来扫描网上电脑开放的网络连接端。确定哪些服务运行在哪些连接端,并且推断计算机哪些服务是开放的。它是网络管理员必用的软件之一,以及用以评估网络系统安全。
  在kali使用命令nmap -sS-p 1-50000 -v 127.0.0.1,代表扫描目标127.0.0.1的1到50000端口。从结果上看,只有22端口开放。
  
  
  网站目录信息收集
  
  在渗透测试中,扫描网站目录结构,可以是否存在遍历目录漏洞,或者敏感文件泄漏,比如php探针。
  dirsearch
  它是一个python开发的目录扫描工具。目的是扫描网站的敏感文件和目录,进行详细的信息收集,从而找到突破口。
  优点:多线程、可保持连接、支持多种后缀(-e|–extensions asp,php)、生成报告(纯文本,JSON)、启发式检测无效的网页、递归的暴力扫描、支持HTTP代理、用户代理随机化、批量处理、请求延迟等等。
  使用:python dirsearch.py -u 。使用之前请确保已安装python环境,dirsearch自带的字典在db目录下。常用的参数:
  -u 指定网址
  -e 指定网站语言
  -w 指定字典
  -r 递归目录(跑出目录后,继续跑目录下面的目录)
  --random-agents 使用随机UA
  
  御剑yjdirscan
  功能特点:
  1.根据状态码探测200,探测出网站真实存在的路径文件。
  2.扫描线程自定义,用户可根据自身的扫描需要和电脑的配置来设置调节扫描线程。
  3.自定义选择字典,可以根据扫描网站的特点自行添加字典。还可以导入用户自己的字典,不使用御剑自带字典,使得功能拓展性更强,扫描功能可进一步增强。
  
  dirmap
  这是一款web目录扫描工具。
  1. 支持n个target\*n个payload并发
  2. 支持递归扫描
  3. 支持自定义需要递归扫描的状态码
  4. 支持(单|多)字典扫描
  5. 支持自定义字符集爆破
  6. 支持爬虫动态字典扫描
  7. 支持自定义标签fuzz目标url
  8. 自定义请求User-Agent、随机延时、请求超时时间、请求代理
  9. 自定义正则表达式匹配假性404页面
  10. 自定义要处理的响应状态码
  11. 自定义跳过大小为x的页面
  12. 自定义显示content-type、显示页面大小,按域名去重复保存结果
  
  
  子域名收集
  
  子域名,是顶级域名(.com、.cn、.top)的下一级,域名整体包括两个“.”或包括一个“/”。如:百度顶级域名为。其下有、、等子域名。收集子域名可以很大程度知道目标所拥有的网站等资产信息。
  OneForAll
  通常,一台服务器上有很多个站点,这些站点之间没有必然的联系,是相互独立的,使用的是不同的域名(甚至端口都不同),但是它们却共存在一台服务器上。如果我们要对某一个站点进行直接渗透无法突破时,那么我们可以对同服务器的其他站点进行渗透,只要能发现一个缺口,就能渗透服务器上的整个站点。此时,我们需要进行子域名收集,而OneForAll是一款功能强大的子域名收集工具。
  安装依赖,pip install -r requirements.txt。
  使用命令:对于单个目标,python oneforall.py run。
  对于多个目标,可把目标保留在txt文件。
  再调用命令pythononeforall.py --targets ./example.txt run。
  结果会自动保存在/root/OneForAll/oneforall/results/里面
  
  
  Layer子域名挖掘机
  Layer子域名挖掘机是一款域名查询工具,可提供网站子域名查询服务;拥有简洁的界面、简单的操作模式,支持服务接口、暴力搜索、同服挖掘三种模式,支持打开网站、复制域名、复制IP、复制CDN、导出域名、导出IP、导出域名+IP、导出域名+IP+WEB服务器以及导出存活网站。
  

网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态

采集交流优采云 发表了文章 • 0 个评论 • 87 次浏览 • 2022-05-02 12:29 • 来自相关话题

  网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态
  ------------------------------------------------------
  免责声明:仅可用于研究学习使用,切勿用于非法犯罪活动,未经双方同意攻击目标是非法的.
  ---------------------------------------------------------------
  一款适用于以HW行动/红队/渗透测试团队为场景的移动端(Android、iOS、WEB、H5、静态网站)信息收集扫描工具,可以帮助渗透测试工程师、攻击队成员、红队成员快速收集到移动端或者静态WEB站点中关键的资产信息并提供基本的信息输出,如:Title、Domain、CDN、指纹信息、状态信息等。
  适用场景功能介绍:
  
  详细操作使用见: 查看全部

  网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态
  ------------------------------------------------------
  免责声明:仅可用于研究学习使用,切勿用于非法犯罪活动,未经双方同意攻击目标是非法的.
  ---------------------------------------------------------------
  一款适用于以HW行动/红队/渗透测试团队为场景的移动端(Android、iOS、WEB、H5、静态网站)信息收集扫描工具,可以帮助渗透测试工程师、攻击队成员、红队成员快速收集到移动端或者静态WEB站点中关键的资产信息并提供基本的信息输出,如:Title、Domain、CDN、指纹信息、状态信息等。
  适用场景功能介绍:
  
  详细操作使用见:

红队攻防之信息收集总结

采集交流优采云 发表了文章 • 0 个评论 • 53 次浏览 • 2022-05-02 10:32 • 来自相关话题

  红队攻防之信息收集总结
  前言
  之前也总结过类似的信息收集相关的文章,但是每隔一段时间理解和手法都会有所不同,本文以hvv或授权但仅提供公司名称域名等情况下渗透测试的视角总结一些自己最近做信息收集的流程套路。
  信息收集一、初始已知信息
  前言中提到的两种情况,一般初始信息只有公司名称、个别官网域名、靶标名称等信息,以此为起点进行信息收集。
  二、搜寻根域名
  此步骤个人的经验是,面对大公司优先选择工信部备案查询,小公司用搜索引擎做起点,然后几种方式都可以过一遍,查漏补缺,尽量获取最全的信息。大部分公司根域名都不会很多,全部过一遍也不会用掉多少时间。
  1.搜索引擎
  搜索引擎直接搜索其公司名称,获取其相关根域名
  2.天眼查、企查查
  从天眼查、企查查等途径,输入公司名,查询其域名以及全资控股子公司的域名
  3.工信部备案
  工信部备案查询域名/ip地址(需要详细且正确的公司名称,结果也会很全面)
  #/Integrated/recordQuery
  4.fofa
  fofa查询其公司名称,获取相关域名
  5.站长之家
  使用其icp查询功能查询备案,当我们不知道公司完整名称的时候也可以使用此网站功能使用已知域名查询完整备案公司名称
  6.反查域名
  用已知的某些ip反查域名
  三、子域名
  在子域名收集这步本人一般不喜欢爆破的方式,子域名爆破比较依赖字典,字典小就收集不全,字典大就很费时间,所以一般优先在各类解析记录的网站查询。
  1.各类网站查询解析记录
  以bilibili为例:
  类似的网站非常多,这两个都是免费的,但是第二个要注册登录
  2.子域名爆破
  相关的工具很多,部分扫描器也自带子域名爆破功能或可安装相关插件。
  subDomainsBrute
  3.fofa、shodan
  利用这类工具对域名资产进行查询,如
  fofa语法domain=””
  4.OneForAll
  此工具会集成多种方式搜集子域名,包括dns查询、证书查询等,详情见其项目中的readme
  安装
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />3<br style="box-sizing: border-box;" />4<br style="box-sizing: border-box;" />5<br style="box-sizing: border-box;" />
  git clone https://github.com/shmilylty/OneForAll.git<br style="box-sizing: border-box;" />cd OneForAll/<br style="box-sizing: border-box;" />python3 -m pip install -U pip setuptools wheel -i https://mirrors.aliyun.com/pypi/simple/<br style="box-sizing: border-box;" />pip3 install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/<br style="box-sizing: border-box;" />python3 oneforall.py --help<br style="box-sizing: border-box;" />
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />
  python3 oneforall.py --target example.com run<br style="box-sizing: border-box;" />python3 oneforall.py --targets ./example.txt run<br style="box-sizing: border-box;" />
  四、ip
  ip列表不完全来源于域名解析,有一部分ip是直接使用ip地址提供服务的,需要提前收集这部分信息,另一部分是通过域名解析过来的。
  1.各类网站查询解析记录
  同子域名查询中的操作,但是需要做的是把ip列表导出
  2.解析域名
  将所有已收集到的子域名通过脚本批量调用dig或nslookup解析ip
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />
  nslookup xxx.com<br style="box-sizing: border-box;" />dig xxx.com @114.114.114.114<br style="box-sizing: border-box;" />
  编写脚本批量调用dig命令,导出结果
  或将域名列表放在在线解析网站中,导出其解析结果
  这个步骤中需要额外关注cdn的情况,绕过cdn寻找其真实ip,可参考这篇文档
  3.c段
  将前面已经获得的ip全部整理好,使用脚本进行排序,懒得写脚本也可以使用在线的功能
  如ip地址排序计算器
  得到排序好的ip,可以先自己判断哪些c段可能属于目标,再进行一些扫描和访问,整理更全面的ip列表。
  五、端口
  使用masscan、nmap等工具对端口信息进行收集
  六、web服务
  使用webfinder等工具扫描已整理ip列表的web常用端口,导出形如:port/以及:port/的web服务列表
  指纹识别
  1.
  2.
  七、漏扫1.主机扫描
  上文整理好的ip列表和域名列表,可以丢入主机扫描相关的扫描器中,如goby、Nessus等
  2.web扫描
  整理好web服务列表,可以丢入awvs等工具进行扫描,同时可以联动xray批量扫描 查看全部

  红队攻防之信息收集总结
  前言
  之前也总结过类似的信息收集相关的文章,但是每隔一段时间理解和手法都会有所不同,本文以hvv或授权但仅提供公司名称域名等情况下渗透测试的视角总结一些自己最近做信息收集的流程套路。
  信息收集一、初始已知信息
  前言中提到的两种情况,一般初始信息只有公司名称、个别官网域名、靶标名称等信息,以此为起点进行信息收集。
  二、搜寻根域名
  此步骤个人的经验是,面对大公司优先选择工信部备案查询,小公司用搜索引擎做起点,然后几种方式都可以过一遍,查漏补缺,尽量获取最全的信息。大部分公司根域名都不会很多,全部过一遍也不会用掉多少时间。
  1.搜索引擎
  搜索引擎直接搜索其公司名称,获取其相关根域名
  2.天眼查、企查查
  从天眼查、企查查等途径,输入公司名,查询其域名以及全资控股子公司的域名
  3.工信部备案
  工信部备案查询域名/ip地址(需要详细且正确的公司名称,结果也会很全面)
  #/Integrated/recordQuery
  4.fofa
  fofa查询其公司名称,获取相关域名
  5.站长之家
  使用其icp查询功能查询备案,当我们不知道公司完整名称的时候也可以使用此网站功能使用已知域名查询完整备案公司名称
  6.反查域名
  用已知的某些ip反查域名
  三、子域名
  在子域名收集这步本人一般不喜欢爆破的方式,子域名爆破比较依赖字典,字典小就收集不全,字典大就很费时间,所以一般优先在各类解析记录的网站查询。
  1.各类网站查询解析记录
  以bilibili为例:
  类似的网站非常多,这两个都是免费的,但是第二个要注册登录
  2.子域名爆破
  相关的工具很多,部分扫描器也自带子域名爆破功能或可安装相关插件。
  subDomainsBrute
  3.fofa、shodan
  利用这类工具对域名资产进行查询,如
  fofa语法domain=””
  4.OneForAll
  此工具会集成多种方式搜集子域名,包括dns查询、证书查询等,详情见其项目中的readme
  安装
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />3<br style="box-sizing: border-box;" />4<br style="box-sizing: border-box;" />5<br style="box-sizing: border-box;" />
  git clone https://github.com/shmilylty/OneForAll.git<br style="box-sizing: border-box;" />cd OneForAll/<br style="box-sizing: border-box;" />python3 -m pip install -U pip setuptools wheel -i https://mirrors.aliyun.com/pypi/simple/<br style="box-sizing: border-box;" />pip3 install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/<br style="box-sizing: border-box;" />python3 oneforall.py --help<br style="box-sizing: border-box;" />
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />
  python3 oneforall.py --target example.com run<br style="box-sizing: border-box;" />python3 oneforall.py --targets ./example.txt run<br style="box-sizing: border-box;" />
  四、ip
  ip列表不完全来源于域名解析,有一部分ip是直接使用ip地址提供服务的,需要提前收集这部分信息,另一部分是通过域名解析过来的。
  1.各类网站查询解析记录
  同子域名查询中的操作,但是需要做的是把ip列表导出
  2.解析域名
  将所有已收集到的子域名通过脚本批量调用dig或nslookup解析ip
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />
  nslookup xxx.com<br style="box-sizing: border-box;" />dig xxx.com @114.114.114.114<br style="box-sizing: border-box;" />
  编写脚本批量调用dig命令,导出结果
  或将域名列表放在在线解析网站中,导出其解析结果
  这个步骤中需要额外关注cdn的情况,绕过cdn寻找其真实ip,可参考这篇文档
  3.c段
  将前面已经获得的ip全部整理好,使用脚本进行排序,懒得写脚本也可以使用在线的功能
  如ip地址排序计算器
  得到排序好的ip,可以先自己判断哪些c段可能属于目标,再进行一些扫描和访问,整理更全面的ip列表。
  五、端口
  使用masscan、nmap等工具对端口信息进行收集
  六、web服务
  使用webfinder等工具扫描已整理ip列表的web常用端口,导出形如:port/以及:port/的web服务列表
  指纹识别
  1.
  2.
  七、漏扫1.主机扫描
  上文整理好的ip列表和域名列表,可以丢入主机扫描相关的扫描器中,如goby、Nessus等
  2.web扫描
  整理好web服务列表,可以丢入awvs等工具进行扫描,同时可以联动xray批量扫描

CTFer成长之路-信息收集-Banner识别

采集交流优采云 发表了文章 • 0 个评论 • 76 次浏览 • 2022-04-22 07:53 • 来自相关话题

  CTFer成长之路-信息收集-Banner识别
  一:Banner识别
  在CTF线上比赛中,一个网站的Banner信息(服务器对外显示的一些基础信息)对解题有着十分重要的作用,选手往往可以通过Banner信息来获得解题思路,如得知网站是用ThinkPHP的Web框架编写时,我们可以尝试ThinkPHP框架的相关历史漏洞。或者得知这个网站是Windows服务器,那么我们在测试上传漏洞时可以根据Windows的特性进行尝试。这里介绍最常用的两种Banner识别方式。
  1.自行搜集指纹库
  Github上有大量成型且公开的CMS指纹库,读者可以自行查找,同时可以借鉴一些成型扫描器对网站进行识别。
  2.使用已有工具
  我们可以利用Wappalyzer工具,同时提供了成型的Python库,用法如下:
  
  
  在data目录下,apps.json文件是其规则库,读者可以根据自己需求自由添加。
  3.总结经验
  在进行服务器的Banner信息探测时,除了通过上述两种常见的识别方式,我们还可以尝试随意输入一些URL,有时可以通过404页面和302跳转页面发现一些信息。例如,开启了debug选项的ThinkPHP网站会在一些错误页面显示ThinkPHP的版本。 查看全部
  CTFer成长之路-信息收集-Banner识别
  一:Banner识别
  在CTF线上比赛中,一个网站的Banner信息(服务器对外显示的一些基础信息)对解题有着十分重要的作用,选手往往可以通过Banner信息来获得解题思路,如得知网站是用ThinkPHP的Web框架编写时,我们可以尝试ThinkPHP框架的相关历史漏洞。或者得知这个网站是Windows服务器,那么我们在测试上传漏洞时可以根据Windows的特性进行尝试。这里介绍最常用的两种Banner识别方式。
  1.自行搜集指纹库
  Github上有大量成型且公开的CMS指纹库,读者可以自行查找,同时可以借鉴一些成型扫描器对网站进行识别。
  2.使用已有工具
  我们可以利用Wappalyzer工具,同时提供了成型的Python库,用法如下:
  
  
  在data目录下,apps.json文件是其规则库,读者可以根据自己需求自由添加。
  3.总结经验
  在进行服务器的Banner信息探测时,除了通过上述两种常见的识别方式,我们还可以尝试随意输入一些URL,有时可以通过404页面和302跳转页面发现一些信息。例如,开启了debug选项的ThinkPHP网站会在一些错误页面显示ThinkPHP的版本。

渗透测试入门篇——信息收集(渗透测试的灵魂)

采集交流优采云 发表了文章 • 0 个评论 • 59 次浏览 • 2022-04-22 07:53 • 来自相关话题

  渗透测试入门篇——信息收集(渗透测试的灵魂)
  通过 google使用googlehack语法查询(百度也可以用这个方式)
  google Hacking是一款绝佳的信息搜集工具,我们可以构造特殊的查询语句进行搜集,构造语句只要你脑洞够大,它的功能就会更大,笔者仅在这里举几个例子
  site: 指定域名
  info:一些基本信息
  filetype:文件类型
  intext:网页中存在的关键字
  4.目录扫描
  在渗透测试中,探测 Web 目录结构和隐藏的敏感文件是一个必不可少的环节,从中可以获取网站的后台管理页面、文件上传页面、甚至可以扫描出网站的源代码。
  常用工具:
  御剑
  dirmap
  Webdirscan
  Cansina
  5.端口扫描
  端口扫描是一个非常重要的环节,端口扫描的目的是了解服务器上运行的服务信息,针对不同的端口进行不同的安全测试。
  常用工具:
  dnsenum
  nmap
  dnsenum
  nslookup
  6.绕过CDN查找真实IP
  什么是CDN?
  CDN的全称是Content Delivery Network,即内容分发网络。CDN是构建在现有网络基础之上的智能虚拟网络,依靠部署在各地的边缘服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。CDN的关键技术主要有内容存储和分发技术。通俗点就是一种缓存技术,提高用户上网体验,但是CDN对渗透测试者的渗透工作就有一定阻碍,所以我们要判断CDN是否存在。
  检测是否存在CDN的方法
  很简单,使用不同地方的 ping 服务,查看对应 IP 地址是否唯一,如果不唯一则极有可能是使用了CDN我们可以利用站长之家这个网站,如下图
  点击ping检测
  
  输入网址执行ping检测
  原理是实现多地ping一个网址,假如ping出来的ip地址都一样那么将不存在CDN
  
  上图是不存在CDN的情况
  下面测试一下google的
  
  ip地址不一样,证明是存在CDN的。
  绕过CDN的方式
  (1)查询子域名:毕竟 CDN 还是不便宜的,所以很多站长可能只会对主站或者流量大的子站点做了 CDN,而很多小站子站点又跟主站在同一台服务器或者同一个C段内,此时就可以通过查询子域名对应的 IP 来辅助查找网站的真实IP。
  (2)查询主域名:以前用CDN的时候有个习惯,只让WWW域名使用CDN,秃域名不适用,为的是在维护网站时更方便,不用等CDN缓存。所以试着把目标网站的www去掉,ping一下看ip是不是变了。
  (3)邮件服务器:一般的邮件系统都在内部,没有经过CDN的解析,通过目标网站用户注册或者RSS订阅功能,查看邮件,寻找邮件头中的邮件服务器域名IP,ping这个邮件服务器的域名,就可以获得目标的真实IP。
  (4)查看域名历史解析记录:也许目标很久之前没有使用CDN,所以可能会存在使用 CDN 前的记录。可以通过网站Netcraft | Internet Research, Cybercrime Disruption and PCI Security Services 来观察域名的IP历史记录。
  (5)国外访问:国内的CDN往往只对国内用户的访问加速,而国外的CDN就不一定了。
  (6)网络空间引擎搜索法:常见的有以前的钟馗之眼,shodan,fofa搜索。以fofa为例,只需输入:title:“网站的title关键字”或者body:“网站的body特征”就可以找出fofa收录的有这些关键字的ip域名,很多时候能获取网站的真实ip。
  (7)网站漏洞:利用网站自身存在的漏洞,很多情况下会泄露服务器的真实IP地址。
  7.指纹识别
  在渗透测试中,对目标服务器进行指纹识别是相当有必要的,因为只有识别出相应的Web容器或者CMS,才能查找与其相关的漏洞,然后才能进行相应的渗透操作。读者可以利用一些在线网站查询CMS指纹识别,如下所示。
  (1)火狐插件:Wappalyzer
  (2)云悉:
  (3)whatweb:
  (4)在线:
  三、信息收集的总结
  收集到这些信息后就可以利用起来,比如:目标的真实IP地址,站点的敏感目录,网站的搭建环境,网站使用的系统,网站防火墙,常用端口信息,目录网站是用什么脚本写的等信息。
  -END-
  信息搜集是关键,做事不要太心急,多学习,多看源码,思路很重要 查看全部
  渗透测试入门篇——信息收集(渗透测试的灵魂)
  通过 google使用googlehack语法查询(百度也可以用这个方式)
  google Hacking是一款绝佳的信息搜集工具,我们可以构造特殊的查询语句进行搜集,构造语句只要你脑洞够大,它的功能就会更大,笔者仅在这里举几个例子
  site: 指定域名
  info:一些基本信息
  filetype:文件类型
  intext:网页中存在的关键字
  4.目录扫描
  在渗透测试中,探测 Web 目录结构和隐藏的敏感文件是一个必不可少的环节,从中可以获取网站的后台管理页面、文件上传页面、甚至可以扫描出网站的源代码。
  常用工具:
  御剑
  dirmap
  Webdirscan
  Cansina
  5.端口扫描
  端口扫描是一个非常重要的环节,端口扫描的目的是了解服务器上运行的服务信息,针对不同的端口进行不同的安全测试。
  常用工具:
  dnsenum
  nmap
  dnsenum
  nslookup
  6.绕过CDN查找真实IP
  什么是CDN?
  CDN的全称是Content Delivery Network,即内容分发网络。CDN是构建在现有网络基础之上的智能虚拟网络,依靠部署在各地的边缘服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。CDN的关键技术主要有内容存储和分发技术。通俗点就是一种缓存技术,提高用户上网体验,但是CDN对渗透测试者的渗透工作就有一定阻碍,所以我们要判断CDN是否存在。
  检测是否存在CDN的方法
  很简单,使用不同地方的 ping 服务,查看对应 IP 地址是否唯一,如果不唯一则极有可能是使用了CDN我们可以利用站长之家这个网站,如下图
  点击ping检测
  
  输入网址执行ping检测
  原理是实现多地ping一个网址,假如ping出来的ip地址都一样那么将不存在CDN
  
  上图是不存在CDN的情况
  下面测试一下google的
  
  ip地址不一样,证明是存在CDN的。
  绕过CDN的方式
  (1)查询子域名:毕竟 CDN 还是不便宜的,所以很多站长可能只会对主站或者流量大的子站点做了 CDN,而很多小站子站点又跟主站在同一台服务器或者同一个C段内,此时就可以通过查询子域名对应的 IP 来辅助查找网站的真实IP。
  (2)查询主域名:以前用CDN的时候有个习惯,只让WWW域名使用CDN,秃域名不适用,为的是在维护网站时更方便,不用等CDN缓存。所以试着把目标网站的www去掉,ping一下看ip是不是变了。
  (3)邮件服务器:一般的邮件系统都在内部,没有经过CDN的解析,通过目标网站用户注册或者RSS订阅功能,查看邮件,寻找邮件头中的邮件服务器域名IP,ping这个邮件服务器的域名,就可以获得目标的真实IP。
  (4)查看域名历史解析记录:也许目标很久之前没有使用CDN,所以可能会存在使用 CDN 前的记录。可以通过网站Netcraft | Internet Research, Cybercrime Disruption and PCI Security Services 来观察域名的IP历史记录。
  (5)国外访问:国内的CDN往往只对国内用户的访问加速,而国外的CDN就不一定了。
  (6)网络空间引擎搜索法:常见的有以前的钟馗之眼,shodan,fofa搜索。以fofa为例,只需输入:title:“网站的title关键字”或者body:“网站的body特征”就可以找出fofa收录的有这些关键字的ip域名,很多时候能获取网站的真实ip。
  (7)网站漏洞:利用网站自身存在的漏洞,很多情况下会泄露服务器的真实IP地址。
  7.指纹识别
  在渗透测试中,对目标服务器进行指纹识别是相当有必要的,因为只有识别出相应的Web容器或者CMS,才能查找与其相关的漏洞,然后才能进行相应的渗透操作。读者可以利用一些在线网站查询CMS指纹识别,如下所示。
  (1)火狐插件:Wappalyzer
  (2)云悉:
  (3)whatweb:
  (4)在线:
  三、信息收集的总结
  收集到这些信息后就可以利用起来,比如:目标的真实IP地址,站点的敏感目录,网站的搭建环境,网站使用的系统,网站防火墙,常用端口信息,目录网站是用什么脚本写的等信息。
  -END-
  信息搜集是关键,做事不要太心急,多学习,多看源码,思路很重要

网站采集工具(网站采集器,是实用简单的网页资源,站长费心)

采集交流优采云 发表了文章 • 0 个评论 • 103 次浏览 • 2022-04-20 18:27 • 来自相关话题

  网站采集工具(网站采集器,是实用简单的网页资源,站长费心)
  网站采集器,是一款实用简单的网络资源下载工具。站长可以监控一个或多个网页的所有资源,并将其下载到自己的数据库中。站长可以自定义下载的资源。内容,包括图片、文字等资源,也可以一次性下载整个网页的所有内容,方便填写自己的网站内容,网站采集器@ &gt; 运行速度非常快,几分钟就可以扫描整个网页,可以大大提高网站采集的工作效率。
  
  站长可以同时使用网站采集器采集多个网站数据。站长还可以随时导入导出任务,任务还可以设置密码,让站长采集任务的详细信息不会泄露,非常实用。网站采集器使用底层HTTP方式采集data,快速稳定,站长可以创建多个任务,同时使用多个线程采集多个网站数据。
  
  网站采集器具有采集暂停/拨号转IP、采集暂停/拨号转IP等多种防采集功能在特殊标记等情况下,让网站避免被目标网站限制采集。网站采集器HIA支持多种内容提取方式,可以根据站长要求对采集到的内容进行处理,无论是HTML还是图片。
  
  站长做网站一定要注意,一定要坚持发布文章。通过网站采集器在前期输出更多的优质内容,对于提高网站的权重也有很大帮助。后期如果是采集别人的文章,必须在网站权重更高后处理,这样搜索引擎就会默认采集@的内容&gt; 为用户带来更好的收益 只有体验本地化的体验,网站的文章才会在很多内容中展现出来。
  
  在网站采集器的网站的排名优化中,长尾词的优化占了相当大的比重。网站的主打词虽然能获得大量流量,但优化难度特别大。相比较而言,长尾关键词竞争较少,上级也很容易,而网站采集器的长尾词带来的与主词相比, 网站 的转化率无法区分。在这种情况下,网站长尾词的工作需要我们站长操心,也值得我们费心。
  
  
  首先,对网站采集器的长尾关键词的挖掘和关键词的扩展,长尾词的特征是从名字上看是长尾,同时字数比较多,但是竞争比较小,关键词怎么扩容呢?这个可以通过网站采集器采集搜索引擎下拉框关键词展开,也可以做一些同理心,想想如果你是用户,你会如何搜索?然后过滤我们扩展的长尾词以选择与我们的 网站 匹配的 关键词。
  
  第二个是网站采集器的网站的内容页。我们都知道网站的首页权重最高,所以我们用最高的权重来优化竞争比较激烈的主题词,那么我们的长尾关键词应该优化在哪里呢?这是我们的内容页面。具体的优化细节,我们需要在相关的标题描述中加入长尾关键词。网站采集器优质优质原创文章对我们优化长尾词很有帮助,所以我们要尽量网站采集器转到采集优质原创文章,同时注意文章中的锚文本不要出现太多,且不影响用户的体验和阅读。 查看全部

  网站采集工具(网站采集器,是实用简单的网页资源,站长费心)
  网站采集器,是一款实用简单的网络资源下载工具。站长可以监控一个或多个网页的所有资源,并将其下载到自己的数据库中。站长可以自定义下载的资源。内容,包括图片、文字等资源,也可以一次性下载整个网页的所有内容,方便填写自己的网站内容,网站采集器@ &gt; 运行速度非常快,几分钟就可以扫描整个网页,可以大大提高网站采集的工作效率。
  
  站长可以同时使用网站采集器采集多个网站数据。站长还可以随时导入导出任务,任务还可以设置密码,让站长采集任务的详细信息不会泄露,非常实用。网站采集器使用底层HTTP方式采集data,快速稳定,站长可以创建多个任务,同时使用多个线程采集多个网站数据。
  
  网站采集器具有采集暂停/拨号转IP、采集暂停/拨号转IP等多种防采集功能在特殊标记等情况下,让网站避免被目标网站限制采集。网站采集器HIA支持多种内容提取方式,可以根据站长要求对采集到的内容进行处理,无论是HTML还是图片。
  
  站长做网站一定要注意,一定要坚持发布文章。通过网站采集器在前期输出更多的优质内容,对于提高网站的权重也有很大帮助。后期如果是采集别人的文章,必须在网站权重更高后处理,这样搜索引擎就会默认采集@的内容&gt; 为用户带来更好的收益 只有体验本地化的体验,网站的文章才会在很多内容中展现出来。
  
  在网站采集器的网站的排名优化中,长尾词的优化占了相当大的比重。网站的主打词虽然能获得大量流量,但优化难度特别大。相比较而言,长尾关键词竞争较少,上级也很容易,而网站采集器的长尾词带来的与主词相比, 网站 的转化率无法区分。在这种情况下,网站长尾词的工作需要我们站长操心,也值得我们费心。
  
  
  首先,对网站采集器的长尾关键词的挖掘和关键词的扩展,长尾词的特征是从名字上看是长尾,同时字数比较多,但是竞争比较小,关键词怎么扩容呢?这个可以通过网站采集器采集搜索引擎下拉框关键词展开,也可以做一些同理心,想想如果你是用户,你会如何搜索?然后过滤我们扩展的长尾词以选择与我们的 网站 匹配的 关键词。
  
  第二个是网站采集器的网站的内容页。我们都知道网站的首页权重最高,所以我们用最高的权重来优化竞争比较激烈的主题词,那么我们的长尾关键词应该优化在哪里呢?这是我们的内容页面。具体的优化细节,我们需要在相关的标题描述中加入长尾关键词。网站采集器优质优质原创文章对我们优化长尾词很有帮助,所以我们要尽量网站采集器转到采集优质原创文章,同时注意文章中的锚文本不要出现太多,且不影响用户的体验和阅读。

网站采集工具(阿希站长平台快速查询百度权重有几个强大的工具)

采集交流优采云 发表了文章 • 0 个评论 • 137 次浏览 • 2022-04-20 11:01 • 来自相关话题

  网站采集工具(阿希站长平台快速查询百度权重有几个强大的工具)
  网站采集工具阿希站长平台快速查询百度权重有几个强大的工具,这是我使用最多的查询工具,它能够让我清楚的了解到您的网站是否被百度收录,收录率是多少,收录率这些都是可以从百度站长工具查询出来的,如果你的网站被收录率低的话,那你是需要及时的把您的网站打造成为一个优质的网站,还需要进行添加外链了,很多时候要做的就是多做外链,网站里面发外链,但是你也需要根据百度后台的更新算法及时进行更新才可以的,并且很多人都不知道。
  优质的外链能够帮助你获得更多的流量,提高网站的排名,你甚至可以直接在百度给你的网站做广告,给你做网站的自然排名就可以的。还能够让你的网站以最快的速度做出排名。高权重站点,在百度搜索引擎搜索的时候会出现12个搜索结果,由于他们的权重都比较高,百度就会把他们做为优质的网站,并且在百度搜索排名靠前的一般都是高权重的,权重高的网站用户体验也会更好一些。
  没有权重的网站排名一般都会比较靠后。尤其是对一些新的网站来说,他们的排名都比较靠后。也是为什么网站需要要有一定的权重,权重越高,用户体验也就越好,这个也是需要给网站说明一下,权重越高,用户体验也就越好。查询网站搜索引擎排名1.linksearch网站搜索引擎排名里面的关键词linksearch,可以在站长平台中找到,最后点击关键词去查询相关的排名页面。
  2.thesearchfornewyork(newyork)同时可以在站长平台、百度站长工具同时查询到相关站点搜索引擎排名。3.abouttheworld这个是一个站长平台的搜索引擎排名查询工具,查询这个站点的排名,可以搜索出来更多的网站排名,如果你想要查询这个网站的排名,可以去搜索这个网站,搜索出来的时候我们可以看到相关网站的排名,一般网站排名靠前的都是一些很优质的网站。
  没有排名的一般是比较一般的网站。如果你想要查询的是一些很知名的网站排名,可以点击这个链接,里面搜索出来的排名结果都是比较靠前的,可以采集到。如果你想知道某个网站被百度收录的多少,你可以在百度搜索一下这个网站,你会发现很多不相关的,百度会把他们都收录,这是你对这个网站不了解的,没有收录你也可以使用阿希站长平台查询到。
  假如你想要查询你的网站是否在百度站长工具收录了,你在搜索这个关键词的时候,只要出现了收录的网站,你也可以进行查询了,因为很多时候你在站长工具没有收录,其实也是没有收录进去,你可以点击这个关键词,查询你的网站是否在百度站长工具收录了,比如说你是做外卖这方面的网站,你在百度站长工具搜索一下,你会发现, 查看全部

  网站采集工具(阿希站长平台快速查询百度权重有几个强大的工具)
  网站采集工具阿希站长平台快速查询百度权重有几个强大的工具,这是我使用最多的查询工具,它能够让我清楚的了解到您的网站是否被百度收录,收录率是多少,收录率这些都是可以从百度站长工具查询出来的,如果你的网站被收录率低的话,那你是需要及时的把您的网站打造成为一个优质的网站,还需要进行添加外链了,很多时候要做的就是多做外链,网站里面发外链,但是你也需要根据百度后台的更新算法及时进行更新才可以的,并且很多人都不知道。
  优质的外链能够帮助你获得更多的流量,提高网站的排名,你甚至可以直接在百度给你的网站做广告,给你做网站的自然排名就可以的。还能够让你的网站以最快的速度做出排名。高权重站点,在百度搜索引擎搜索的时候会出现12个搜索结果,由于他们的权重都比较高,百度就会把他们做为优质的网站,并且在百度搜索排名靠前的一般都是高权重的,权重高的网站用户体验也会更好一些。
  没有权重的网站排名一般都会比较靠后。尤其是对一些新的网站来说,他们的排名都比较靠后。也是为什么网站需要要有一定的权重,权重越高,用户体验也就越好,这个也是需要给网站说明一下,权重越高,用户体验也就越好。查询网站搜索引擎排名1.linksearch网站搜索引擎排名里面的关键词linksearch,可以在站长平台中找到,最后点击关键词去查询相关的排名页面。
  2.thesearchfornewyork(newyork)同时可以在站长平台、百度站长工具同时查询到相关站点搜索引擎排名。3.abouttheworld这个是一个站长平台的搜索引擎排名查询工具,查询这个站点的排名,可以搜索出来更多的网站排名,如果你想要查询这个网站的排名,可以去搜索这个网站,搜索出来的时候我们可以看到相关网站的排名,一般网站排名靠前的都是一些很优质的网站。
  没有排名的一般是比较一般的网站。如果你想要查询的是一些很知名的网站排名,可以点击这个链接,里面搜索出来的排名结果都是比较靠前的,可以采集到。如果你想知道某个网站被百度收录的多少,你可以在百度搜索一下这个网站,你会发现很多不相关的,百度会把他们都收录,这是你对这个网站不了解的,没有收录你也可以使用阿希站长平台查询到。
  假如你想要查询你的网站是否在百度站长工具收录了,你在搜索这个关键词的时候,只要出现了收录的网站,你也可以进行查询了,因为很多时候你在站长工具没有收录,其实也是没有收录进去,你可以点击这个关键词,查询你的网站是否在百度站长工具收录了,比如说你是做外卖这方面的网站,你在百度站长工具搜索一下,你会发现,

网站采集工具(网站数据采集的话的3个爬虫软件可以直接直接使用)

采集交流优采云 发表了文章 • 0 个评论 • 127 次浏览 • 2022-04-18 07:32 • 来自相关话题

  网站采集工具(网站数据采集的话的3个爬虫软件可以直接直接使用)
  网站数据采集,有很多现成的爬虫软件可以直接使用。下面我简单介绍三个,分别是优采云、优采云和优采云,操作简单,易学易懂,感兴趣的朋友可以试试:
  01优采云采集器这是一款非常智能的网络爬虫软件,支持跨平台,完全免费供个人使用。对于大部分网站,只要输入网页地址,软件就会自动识别并提取相关字段信息,包括列表、表格、链接、图片等,无需配置任何采集规则,一个-点击采取,支持自动翻页和数据导出功能,小白学习和掌握非常容易:
  02优采云采集器这是一款非常不错的国产数据采集软件,相比优采云采集器,优采云采集器目前只有支持Windows平台,需要手动设置采集字段和配置规则,比较麻烦,但也比较灵活,内置大量数据采集模板,可以轻松&lt; @采集JD、天猫等热门网站,官方教程很详细,小白也很容易掌握:
  03优采云采集器这是一款非常流行的专业数据采集软件,功能强大,集数据采集、处理、分析、挖掘全流程为一体,相比优采云For @ &gt;采集器和优采云采集器,规则设置更加灵活智能,可以快速抓取网页上零散的数据,并提供数据分析和辅助决策功能。对于网站数据的日常爬取,是一款非常不错的软件:
  当然,除了以上三个爬虫软件之外,还有很多其他的软件也支持网站data采集,比如作数、神策等也很不错,如果你熟悉的话Python、Java等编程语言,也可以自己编程爬取数据。网上也有相关的教程和资料。介绍很详细。如果你有兴趣,你可以搜索一下。希望以上分享的内容对您有所帮助。欢迎评论和留言补充。 查看全部

  网站采集工具(网站数据采集的话的3个爬虫软件可以直接直接使用)
  网站数据采集,有很多现成的爬虫软件可以直接使用。下面我简单介绍三个,分别是优采云、优采云和优采云,操作简单,易学易懂,感兴趣的朋友可以试试:
  01优采云采集器这是一款非常智能的网络爬虫软件,支持跨平台,完全免费供个人使用。对于大部分网站,只要输入网页地址,软件就会自动识别并提取相关字段信息,包括列表、表格、链接、图片等,无需配置任何采集规则,一个-点击采取,支持自动翻页和数据导出功能,小白学习和掌握非常容易:
  02优采云采集器这是一款非常不错的国产数据采集软件,相比优采云采集器,优采云采集器目前只有支持Windows平台,需要手动设置采集字段和配置规则,比较麻烦,但也比较灵活,内置大量数据采集模板,可以轻松&lt; @采集JD、天猫等热门网站,官方教程很详细,小白也很容易掌握:
  03优采云采集器这是一款非常流行的专业数据采集软件,功能强大,集数据采集、处理、分析、挖掘全流程为一体,相比优采云For @ &gt;采集器和优采云采集器,规则设置更加灵活智能,可以快速抓取网页上零散的数据,并提供数据分析和辅助决策功能。对于网站数据的日常爬取,是一款非常不错的软件:
  当然,除了以上三个爬虫软件之外,还有很多其他的软件也支持网站data采集,比如作数、神策等也很不错,如果你熟悉的话Python、Java等编程语言,也可以自己编程爬取数据。网上也有相关的教程和资料。介绍很详细。如果你有兴趣,你可以搜索一下。希望以上分享的内容对您有所帮助。欢迎评论和留言补充。

[安全工具] 未授权主机信息收集工具-RPCSCAN

采集交流优采云 发表了文章 • 0 个评论 • 54 次浏览 • 2022-05-24 18:59 • 来自相关话题

  [安全工具] 未授权主机信息收集工具-RPCSCAN
  [安全工具] 未授权主机信息收集工具-RPCSCAN
  功能描述:此工具在内网中,能直接未授权获取到目标主机的进程信息,和可能运行过的程序,能方便渗透测试人员在内网中进行高价值主机目标发现。
  推送亮点:类似OXID未授权发现主机网卡信息一样,此工具也能未授权进行主机信息收集。
  工具原理:最近在研究windows的RPC,此工具的主要目的是为了方便内网信息收集。它通过未授权访问目标的135端口并获取目标的rpc map,后通过解析RPC map中的UUID来判断目标主机可能存在的进程(许多进程会在RPC MAP中注册RPC服务,类似360),后续还可以通过相关进程来判断远程主机可能开放的端口。整个过程只需要向目标的135端口发送十几个流量包,在网络和主机层的特征和动静比较小,方便隐秘渗透。
  欢迎各位师傅使用,有什么bug欢迎留言或联系knight!
  使用方法:
  
  使用实例:使用100个线程扫描c段(3秒)。
  
  工具链接:
   查看全部

  [安全工具] 未授权主机信息收集工具-RPCSCAN
  [安全工具] 未授权主机信息收集工具-RPCSCAN
  功能描述:此工具在内网中,能直接未授权获取到目标主机的进程信息,和可能运行过的程序,能方便渗透测试人员在内网中进行高价值主机目标发现。
  推送亮点:类似OXID未授权发现主机网卡信息一样,此工具也能未授权进行主机信息收集。
  工具原理:最近在研究windows的RPC,此工具的主要目的是为了方便内网信息收集。它通过未授权访问目标的135端口并获取目标的rpc map,后通过解析RPC map中的UUID来判断目标主机可能存在的进程(许多进程会在RPC MAP中注册RPC服务,类似360),后续还可以通过相关进程来判断远程主机可能开放的端口。整个过程只需要向目标的135端口发送十几个流量包,在网络和主机层的特征和动静比较小,方便隐秘渗透。
  欢迎各位师傅使用,有什么bug欢迎留言或联系knight!
  使用方法:
  
  使用实例:使用100个线程扫描c段(3秒)。
  
  工具链接:
  

【黑客信息搜集工具】最大限度查找主机名

采集交流优采云 发表了文章 • 0 个评论 • 53 次浏览 • 2022-05-24 01:17 • 来自相关话题

  【黑客信息搜集工具】最大限度查找主机名
  大家好!我是每天为大家分享好文的柠檬!与你一起成长~
  有需要体系化黑客渗透视频教程可看文末哦
  
  Bing-ip2hosts
  Bing-ip2hosts是一款针对站点的网络爬虫工具,该工具基于IP地址实现,能够通过目标IP地址来寻找主机名。
  众所周知,Bing是微软公司旗下的旗舰搜索引擎,此前还曾被取名为MSN搜索或Live搜索。
  该搜索工具提供了搜索引擎独有的一个功能,即允许根据IP地址来进行数据搜索,而Bing-ip2hosts正是基于该功能来实现的。
  该工具可以用来发现子域名以及相关域名,而且它还可以帮助研究人员识别托管在共享环境中的站点。
  这项技术非常适用于渗透测试和漏洞挖掘的初期阶段,也就是网络侦察阶段,以收集到更多的信息,并扩展目标的攻击面。
  跟其他网络爬取工具相比,Bing-ip2hosts的不同之处就在于,该工具提供了智能爬取特性,可以最大限度地发现目标主机名。
  功能介绍
  1、智能抓取行为,最大限度地发现主机名。
  2、在用户控制台界面显示爬取进度。
  3、根据IP地址查找子域名和目标主机名。
  4、可以根据主机名或IP地址进行搜索。
  5、带或不带URL前缀输出数据。
  6、以列表或CSV格式输出到文件。
  7、不需要Bing API密钥。
  8、选择搜索语言和范围。
  9、从命令行或文件中指定目标。
  10、轻量级Bash shell脚本,不需要大量依赖项。
  工具运行演示
  Bing提供了搜索引擎的一种特有功能,即允许通过IP地址来进行数据搜索。
  首先,我们访问,然后搜索IP:40.113.200.201,此时搜索引擎应显示相关的结果,如果显示的是空结果,那么我们可以添加一个“.”。
  帮助信息
  广大研究人员可以使用下列命令查看工具帮助信息:
  bing-ip2hostsisaBing.comwebscraperthatdiscoverswebsitesbyIPaddress.  <br style="box-sizing: border-box;" />UseforOSINTanddiscoveringattack-surfaceofpenetrationtesttargets.  <br style="box-sizing: border-box;" />Usage:./bing-ip2hosts[OPTIONS]IP|hostname  <br style="box-sizing: border-box;" />OPTIONSare:  <br style="box-sizing: border-box;" />-oFILE OutputhostnamestoFILE.  <br style="box-sizing: border-box;" />-iFILE InputlistofIPaddressesorhostnamesfromFILE.  <br style="box-sizing: border-box;" />-nNUM StopafterNUMscrapedpagesreturnnonewresults(Default:5).  <br style="box-sizing: border-box;" />-l Selectthelanguageforuseinthesetlangparameter(Default:en-us).  <br style="box-sizing: border-box;" />-m Selectthemarketforuseinthesetmktparameter(Defaultisunset).  <br style="box-sizing: border-box;" />-u Onlydisplayhostnames.DefaultistoincludeURLprefixes.  <br style="box-sizing: border-box;" />-c CSVoutput.OutputstheIPandhostnameoneachline,separatedbyacomma.  <br style="box-sizing: border-box;" />-q Quiet.Disableoutputexceptforfinalresults.  <br style="box-sizing: border-box;" />-tDIR Usethisdirectoryinsteadof/tmp.  <br style="box-sizing: border-box;" />-V Displaytheversionnumberofbing-ip2hostsandexit.<br />
  工具安装依赖组件
  Bing-ip2hosts需要wget才可以正常运行,但该工具在Ubuntu Linux和Kali Linux平台上已经默认安装了。
  在macOS平台上,我们可以使用homebrew来安装wget:
  homebrew install wget
  当然了,我们也可以使用apt在Debian和Ubuntu上安装wget:
  sudo apt install wget
  安装命令
  首先,使用下列命令将项目源码克隆至本地:
  git clone https://github.com/urbanadvent ... s.git
  然后将Bing-ip2hosts的路径地址写到$PATH环境变量中:
  sudo cp ./bing-ip2hosts /usr/local/bin/
  工具兼容性
  Bing-ip2hosts使用了Bash脚本语言,并且支持在下列操作系统中运行:
  UbuntuLinux
  GNUbash,version4.4.20(1)-release(x86_64-pc-linux-gnu)  <br style="box-sizing: border-box;" />Copyright(C)2016FreeSoftwareFoundation,Inc.  <br style="box-sizing: border-box;" />LicenseGPLv3+:GNUGPLversion3orlater  <br style="box-sizing: border-box;" />Thisisfreesoftware;youarefreetochangeandredistributeit.  <br style="box-sizing: border-box;" />ThereisNOWARRANTY,totheextentpermittedbylaw.
  macOS Catalina
  GNUbash,version3.2.57(1)-release(x86_64-apple-darwin19)  <br style="box-sizing: border-box;" />Copyright(C)2007FreeSoftwareFoundation,Inc.<br />
  项目地址
  Bing-ip2hosts:【GitHub传送门】
  地址:
  零基础如何入门网络安全的
  黑客视频教程+进内部群+领工具+靶场---扫码免费领
  
  扫码免费领资料
  
  
  往期内容回顾
   查看全部

  【黑客信息搜集工具】最大限度查找主机名
  大家好!我是每天为大家分享好文的柠檬!与你一起成长~
  有需要体系化黑客渗透视频教程可看文末哦
  
  Bing-ip2hosts
  Bing-ip2hosts是一款针对站点的网络爬虫工具,该工具基于IP地址实现,能够通过目标IP地址来寻找主机名。
  众所周知,Bing是微软公司旗下的旗舰搜索引擎,此前还曾被取名为MSN搜索或Live搜索。
  该搜索工具提供了搜索引擎独有的一个功能,即允许根据IP地址来进行数据搜索,而Bing-ip2hosts正是基于该功能来实现的。
  该工具可以用来发现子域名以及相关域名,而且它还可以帮助研究人员识别托管在共享环境中的站点。
  这项技术非常适用于渗透测试和漏洞挖掘的初期阶段,也就是网络侦察阶段,以收集到更多的信息,并扩展目标的攻击面。
  跟其他网络爬取工具相比,Bing-ip2hosts的不同之处就在于,该工具提供了智能爬取特性,可以最大限度地发现目标主机名。
  功能介绍
  1、智能抓取行为,最大限度地发现主机名。
  2、在用户控制台界面显示爬取进度。
  3、根据IP地址查找子域名和目标主机名。
  4、可以根据主机名或IP地址进行搜索。
  5、带或不带URL前缀输出数据。
  6、以列表或CSV格式输出到文件。
  7、不需要Bing API密钥。
  8、选择搜索语言和范围。
  9、从命令行或文件中指定目标。
  10、轻量级Bash shell脚本,不需要大量依赖项。
  工具运行演示
  Bing提供了搜索引擎的一种特有功能,即允许通过IP地址来进行数据搜索。
  首先,我们访问,然后搜索IP:40.113.200.201,此时搜索引擎应显示相关的结果,如果显示的是空结果,那么我们可以添加一个“.”。
  帮助信息
  广大研究人员可以使用下列命令查看工具帮助信息:
  bing-ip2hostsisaBing.comwebscraperthatdiscoverswebsitesbyIPaddress.  <br style="box-sizing: border-box;" />UseforOSINTanddiscoveringattack-surfaceofpenetrationtesttargets.  <br style="box-sizing: border-box;" />Usage:./bing-ip2hosts[OPTIONS]IP|hostname  <br style="box-sizing: border-box;" />OPTIONSare:  <br style="box-sizing: border-box;" />-oFILE OutputhostnamestoFILE.  <br style="box-sizing: border-box;" />-iFILE InputlistofIPaddressesorhostnamesfromFILE.  <br style="box-sizing: border-box;" />-nNUM StopafterNUMscrapedpagesreturnnonewresults(Default:5).  <br style="box-sizing: border-box;" />-l Selectthelanguageforuseinthesetlangparameter(Default:en-us).  <br style="box-sizing: border-box;" />-m Selectthemarketforuseinthesetmktparameter(Defaultisunset).  <br style="box-sizing: border-box;" />-u Onlydisplayhostnames.DefaultistoincludeURLprefixes.  <br style="box-sizing: border-box;" />-c CSVoutput.OutputstheIPandhostnameoneachline,separatedbyacomma.  <br style="box-sizing: border-box;" />-q Quiet.Disableoutputexceptforfinalresults.  <br style="box-sizing: border-box;" />-tDIR Usethisdirectoryinsteadof/tmp.  <br style="box-sizing: border-box;" />-V Displaytheversionnumberofbing-ip2hostsandexit.<br />
  工具安装依赖组件
  Bing-ip2hosts需要wget才可以正常运行,但该工具在Ubuntu Linux和Kali Linux平台上已经默认安装了。
  在macOS平台上,我们可以使用homebrew来安装wget:
  homebrew install wget
  当然了,我们也可以使用apt在Debian和Ubuntu上安装wget:
  sudo apt install wget
  安装命令
  首先,使用下列命令将项目源码克隆至本地:
  git clone https://github.com/urbanadvent ... s.git
  然后将Bing-ip2hosts的路径地址写到$PATH环境变量中:
  sudo cp ./bing-ip2hosts /usr/local/bin/
  工具兼容性
  Bing-ip2hosts使用了Bash脚本语言,并且支持在下列操作系统中运行:
  UbuntuLinux
  GNUbash,version4.4.20(1)-release(x86_64-pc-linux-gnu)  <br style="box-sizing: border-box;" />Copyright(C)2016FreeSoftwareFoundation,Inc.  <br style="box-sizing: border-box;" />LicenseGPLv3+:GNUGPLversion3orlater  <br style="box-sizing: border-box;" />Thisisfreesoftware;youarefreetochangeandredistributeit.  <br style="box-sizing: border-box;" />ThereisNOWARRANTY,totheextentpermittedbylaw.
  macOS Catalina
  GNUbash,version3.2.57(1)-release(x86_64-apple-darwin19)  <br style="box-sizing: border-box;" />Copyright(C)2007FreeSoftwareFoundation,Inc.<br />
  项目地址
  Bing-ip2hosts:【GitHub传送门】
  地址:
  零基础如何入门网络安全的
  黑客视频教程+进内部群+领工具+靶场---扫码免费领
  
  扫码免费领资料
  
  
  往期内容回顾
  

网站采集工具建议尝试以下几个,必不可少

采集交流优采云 发表了文章 • 0 个评论 • 100 次浏览 • 2022-05-21 19:05 • 来自相关话题

  网站采集工具建议尝试以下几个,必不可少
  网站采集工具建议尝试以下几个,如果想做seo,掌握这些必不可少。1.googleseotoolkit,这个是全球最大的google服务器上面的工具,采集google热度比较高的网站或者是一些关键词,重点就是速度快。2.infinitesearchagency,这个是google官方的关键词采集工具,可以将关键词的热度高的做长尾词,词组等等。
  3.googleartificialintelligenceads,googleai出的采集工具,采集热度比较高的词组或者是网站的话,在搜索引擎中的展现率会很高,网站的排名也会更靠前。
  如果说做seo的话,我有用过这款工具,大家可以看下(懒写链接了),
  试试xx搜索引擎,关键词覆盖200多万,
  现在很多工具都可以采集google的数据,关键是免费版我用到的一个足够多了,其他功能收费版功能都差不多,个人感觉没必要,如果你说的关键词数量是指采集出来200个左右,
  站长宝
  推荐站长宝,采集网站链接信息非常方便,免费版足够用,
  友站工具
  wordpress有免费版,做长尾关键词,打通自媒体平台的话,
  随着互联网的高速发展,seo的工具也是越来越多,但是有关于seo的工具网站,我目前也只能推荐一个“站长宝”,因为对于长尾关键词的seo工具我不是很了解,但是站长宝的采集的网站有250万个,对于长尾关键词的搜索可以查询到网站分类,例如美图软件中第三方平台的美图,相关的黄图网站等,都可以有采集到,反正挺不错的。 查看全部

  网站采集工具建议尝试以下几个,必不可少
  网站采集工具建议尝试以下几个,如果想做seo,掌握这些必不可少。1.googleseotoolkit,这个是全球最大的google服务器上面的工具,采集google热度比较高的网站或者是一些关键词,重点就是速度快。2.infinitesearchagency,这个是google官方的关键词采集工具,可以将关键词的热度高的做长尾词,词组等等。
  3.googleartificialintelligenceads,googleai出的采集工具,采集热度比较高的词组或者是网站的话,在搜索引擎中的展现率会很高,网站的排名也会更靠前。
  如果说做seo的话,我有用过这款工具,大家可以看下(懒写链接了),
  试试xx搜索引擎,关键词覆盖200多万,
  现在很多工具都可以采集google的数据,关键是免费版我用到的一个足够多了,其他功能收费版功能都差不多,个人感觉没必要,如果你说的关键词数量是指采集出来200个左右,
  站长宝
  推荐站长宝,采集网站链接信息非常方便,免费版足够用,
  友站工具
  wordpress有免费版,做长尾关键词,打通自媒体平台的话,
  随着互联网的高速发展,seo的工具也是越来越多,但是有关于seo的工具网站,我目前也只能推荐一个“站长宝”,因为对于长尾关键词的seo工具我不是很了解,但是站长宝的采集的网站有250万个,对于长尾关键词的搜索可以查询到网站分类,例如美图软件中第三方平台的美图,相关的黄图网站等,都可以有采集到,反正挺不错的。

Teemo:域名信息收集及爆破工具

采集交流优采云 发表了文章 • 0 个评论 • 51 次浏览 • 2022-05-20 20:31 • 来自相关话题

  Teemo:域名信息收集及爆破工具
  
  
  项目主页
  简介
  该工具主要有三大模块:
  利用搜索引擎利用第三方站点利用暴力破解基本使用
  查看帮助:
  python teemo.py -h
  枚举指定域名(会使用搜索引擎和第三方站点模块):
  python teemo.py -d example.com
  启用爆破模式:
  python teemo.py -b -d example.com
  将结果保存到指定文件(默认会跟进config.py中的设置保存到以域名命名的文件中):
  python teemo.py -d example.com -o result.txt
  收集域名并扫描指定端口 :
  python teemo.py -d example.com -p 80,443
  参考
  参考以下优秀的工具修改而来
  Thanks for their sharing.
  优缺点
  为什么要修改,相对以上优秀工具有什么优缺点?
  优点:
  使用的搜索引擎和第三方站点更全面,经过实际测试,发现收集的域名会更多。
  添加了代理的支持,像google,ask等可以通过指定代理地址去访问,个人使用google较多,所以这个对我很重要。
  使用搜索引擎的模块,会收集邮箱地址。
  缺点:
  初始版本,单线程,速度慢,bug很多。但后续会持续更新改进。
  相关思维导图
  
  你会喜欢
   查看全部

  Teemo:域名信息收集及爆破工具
  
  
  项目主页
  简介
  该工具主要有三大模块:
  利用搜索引擎利用第三方站点利用暴力破解基本使用
  查看帮助:
  python teemo.py -h
  枚举指定域名(会使用搜索引擎和第三方站点模块):
  python teemo.py -d example.com
  启用爆破模式:
  python teemo.py -b -d example.com
  将结果保存到指定文件(默认会跟进config.py中的设置保存到以域名命名的文件中):
  python teemo.py -d example.com -o result.txt
  收集域名并扫描指定端口 :
  python teemo.py -d example.com -p 80,443
  参考
  参考以下优秀的工具修改而来
  Thanks for their sharing.
  优缺点
  为什么要修改,相对以上优秀工具有什么优缺点?
  优点:
  使用的搜索引擎和第三方站点更全面,经过实际测试,发现收集的域名会更多。
  添加了代理的支持,像google,ask等可以通过指定代理地址去访问,个人使用google较多,所以这个对我很重要。
  使用搜索引擎的模块,会收集邮箱地址。
  缺点:
  初始版本,单线程,速度慢,bug很多。但后续会持续更新改进。
  相关思维导图
  
  你会喜欢
  

网站采集工具的主要作用是什么?如何定义过滤?

采集交流优采云 发表了文章 • 0 个评论 • 90 次浏览 • 2022-05-20 01:02 • 来自相关话题

  网站采集工具的主要作用是什么?如何定义过滤?
  网站采集工具,起到的主要作用就是过滤访问量较小的网站,并且过滤多的页面以及错误页面(这部分页面浏览量比较少,但是内容可能会对搜索引擎不利,所以才需要过滤)。如何过滤,靠平时的经验,遇到该页面就过滤一下,也有可能忽略了一些网站主动提交的页面,导致网站的权重降低。
  网站过滤的多不多,主要看域名规模,然后再看网站内容质量。一般来说,如果是蜘蛛爬的比较多的站,新站,权重又不高的,网站过滤的要多点。如果是权重比较高的网站,且收录也比较高的,网站过滤就不大好过滤了。
  做为站长自己看的话过滤一下也就过滤了。具体看如何定义过滤了。网站过滤看域名权重的高低。某个网站的收录多少与收录量也有很大关系。百度现在已经改革成站长们学习的平台,对站长更加照顾。网站是长期的事情,多看看一些网站,总能在一定程度上帮助自己提高收录,提高排名等。
  大型的网站当然是过滤好的,因为他拥有一定用户数量,并且内容比较优质、做seo必须要做到这些才有价值。小型的站就不需要了,因为小型的网站收录量不会太大,做的时候对用户吸引力不大,而且很多小型的网站主动做的关键词,对于用户搜索来说没有优势。我都是过滤的,每天有新的站点加入就过滤一次,反正页面数量也不会太多,我也没有太大精力。 查看全部

  网站采集工具的主要作用是什么?如何定义过滤?
  网站采集工具,起到的主要作用就是过滤访问量较小的网站,并且过滤多的页面以及错误页面(这部分页面浏览量比较少,但是内容可能会对搜索引擎不利,所以才需要过滤)。如何过滤,靠平时的经验,遇到该页面就过滤一下,也有可能忽略了一些网站主动提交的页面,导致网站的权重降低。
  网站过滤的多不多,主要看域名规模,然后再看网站内容质量。一般来说,如果是蜘蛛爬的比较多的站,新站,权重又不高的,网站过滤的要多点。如果是权重比较高的网站,且收录也比较高的,网站过滤就不大好过滤了。
  做为站长自己看的话过滤一下也就过滤了。具体看如何定义过滤了。网站过滤看域名权重的高低。某个网站的收录多少与收录量也有很大关系。百度现在已经改革成站长们学习的平台,对站长更加照顾。网站是长期的事情,多看看一些网站,总能在一定程度上帮助自己提高收录,提高排名等。
  大型的网站当然是过滤好的,因为他拥有一定用户数量,并且内容比较优质、做seo必须要做到这些才有价值。小型的站就不需要了,因为小型的网站收录量不会太大,做的时候对用户吸引力不大,而且很多小型的网站主动做的关键词,对于用户搜索来说没有优势。我都是过滤的,每天有新的站点加入就过滤一次,反正页面数量也不会太多,我也没有太大精力。

安全小课堂第四十九期【网站安全检测之信息收集类工具】

采集交流优采云 发表了文章 • 0 个评论 • 62 次浏览 • 2022-05-11 14:54 • 来自相关话题

  安全小课堂第四十九期【网站安全检测之信息收集类工具】
  网站安全检测的第一步是最大程度地收集目标系统的信息,这同样也是网站安全检测的关键性步骤。信息的收集和分析伴随着网站安全检测的每一个步骤。作为有着多年的网络安全经验的资深白帽子平时做渗透测试时会使用哪些信息收集类工具呢?JSRC 安全小课堂第四十九期,我们邀请到了花开若相惜、沦沦师傅为简单介绍一下他们常用的信息收集类工具。以及 JSRC 白帽子苦逼司马,DragonEgg,wadcl、iDer、PX1624的讨论。
  讲师:花开若相惜
  讲师简介:
  硬土壳安全CTO,Pax.MacTeam创始人之一,多年渗透测试、安全培训等经验。专注于安全开发、渗透测试、代码审计等领域。
  讲师:沦沦
  讲师简介:
  安全白帽子,某甲方安全研究员,网络尖刀团队核心成员,具备渗透测试、漏洞挖掘等相关经验和技巧。
  
  用于信息收集的工具有哪些?京安小妹
  
  subDomainsBrute、Layer子域名挖掘机、WebRobot、nmap、wyportma、
  python和一双勤劳的双手,常用到的东西都会自己会去用python实现自动化。
  讲师:沦沦、花开若相惜
  白帽子观点:matego
  白帽子观点:跟Sublist3r类似,自动从各种搜索引擎搜索域名的子域名
  白帽子观点:theharverster
  白帽子观点:还有各种指纹识别的工具
  白帽子观点 :人员安全方面,在QQ群搜索,搜索企业名等,想办法混进去群里有可能有意想不到的发现
  
  如果只能推荐三个工具会推荐哪三个?为什么?京安小妹
  
  seay写的Layer子域名挖掘机字典跟速度都挺不错,唯一缺点是每次都要打开虚拟机。
  chrome插件 shodan ip的各种信息,端口信息 mysql redis等等能不能外连一目了然。
  google,你懂的。
  subDomainsBrute、WebRobot、nmap,试用了几个域名收集的还是感觉subDomainsBrute进行收集域名更精准一点重复的业务不会太多,WebRobot收集信息比较全面包含(百度、google和必应的搜索抓取、C段查询、域名暴破等)、nmap扫描端口指纹识别是比较好的。
  讲师:沦沦、花开若相惜
  
  请分别描述一下这三个工具的常见用法。京安小妹
  
  Layer子域名挖掘机 输入好域名,点开始,喝杯咖啡等结果。
  shodan 点击图标 view-hoste-detail 查看详情。
  google :不会什么搜什么、想要什么搜什么,什么google hacker 域名收集啥的大家都懂。subDomainsBrute的使用方法很简单在github下载完,直接写入subDomainsBrute的执行文件都有相关的使用说明,比如:
  --full。
  WebRobot比较简单看了都懂。
  。
  nmap都是必备专用相信都会用 。
  讲师:沦沦、花开若相惜
  
  这三个工具在使用过程中存在什么问题?如何解决?
  京安小妹
  
  在使用过程过确实是有一些不足的地方,比如用subDomainsBrute进行扫描只收集了IP和域名但一些指纹就没进行识别,比如网站的标题和服务还有端口,可以在subDomainsBrute的前提上再进行编写把这几个功能增加上去就更加方便了。
  讲师:沦沦、花开若相惜
  
  企业是否有办法防御这三个工具?需要使用什么样的方法?京安小妹
  
  端口的话可以进行加防火墙规则进行处理,
  然后域名的话一般公开到外网早晚都会被收集到最好的办法就是在上线前就进行全面的安全测试通过之后进行上线。
  讲师:沦沦、花开若相惜
  
  本期JSRC 安全小课堂到此结束。更多内容请期待下期安全小课堂,如果还有你希望出现在安全小课堂内容暂时未出现,也欢迎留言告诉我们。 查看全部

  安全小课堂第四十九期【网站安全检测之信息收集类工具】
  网站安全检测的第一步是最大程度地收集目标系统的信息,这同样也是网站安全检测的关键性步骤。信息的收集和分析伴随着网站安全检测的每一个步骤。作为有着多年的网络安全经验的资深白帽子平时做渗透测试时会使用哪些信息收集类工具呢?JSRC 安全小课堂第四十九期,我们邀请到了花开若相惜、沦沦师傅为简单介绍一下他们常用的信息收集类工具。以及 JSRC 白帽子苦逼司马,DragonEgg,wadcl、iDer、PX1624的讨论。
  讲师:花开若相惜
  讲师简介:
  硬土壳安全CTO,Pax.MacTeam创始人之一,多年渗透测试、安全培训等经验。专注于安全开发、渗透测试、代码审计等领域。
  讲师:沦沦
  讲师简介:
  安全白帽子,某甲方安全研究员,网络尖刀团队核心成员,具备渗透测试、漏洞挖掘等相关经验和技巧。
  
  用于信息收集的工具有哪些?京安小妹
  
  subDomainsBrute、Layer子域名挖掘机、WebRobot、nmap、wyportma、
  python和一双勤劳的双手,常用到的东西都会自己会去用python实现自动化。
  讲师:沦沦、花开若相惜
  白帽子观点:matego
  白帽子观点:跟Sublist3r类似,自动从各种搜索引擎搜索域名的子域名
  白帽子观点:theharverster
  白帽子观点:还有各种指纹识别的工具
  白帽子观点 :人员安全方面,在QQ群搜索,搜索企业名等,想办法混进去群里有可能有意想不到的发现
  
  如果只能推荐三个工具会推荐哪三个?为什么?京安小妹
  
  seay写的Layer子域名挖掘机字典跟速度都挺不错,唯一缺点是每次都要打开虚拟机。
  chrome插件 shodan ip的各种信息,端口信息 mysql redis等等能不能外连一目了然。
  google,你懂的。
  subDomainsBrute、WebRobot、nmap,试用了几个域名收集的还是感觉subDomainsBrute进行收集域名更精准一点重复的业务不会太多,WebRobot收集信息比较全面包含(百度、google和必应的搜索抓取、C段查询、域名暴破等)、nmap扫描端口指纹识别是比较好的。
  讲师:沦沦、花开若相惜
  
  请分别描述一下这三个工具的常见用法。京安小妹
  
  Layer子域名挖掘机 输入好域名,点开始,喝杯咖啡等结果。
  shodan 点击图标 view-hoste-detail 查看详情。
  google :不会什么搜什么、想要什么搜什么,什么google hacker 域名收集啥的大家都懂。subDomainsBrute的使用方法很简单在github下载完,直接写入subDomainsBrute的执行文件都有相关的使用说明,比如:
  --full。
  WebRobot比较简单看了都懂。
  。
  nmap都是必备专用相信都会用 。
  讲师:沦沦、花开若相惜
  
  这三个工具在使用过程中存在什么问题?如何解决?
  京安小妹
  
  在使用过程过确实是有一些不足的地方,比如用subDomainsBrute进行扫描只收集了IP和域名但一些指纹就没进行识别,比如网站的标题和服务还有端口,可以在subDomainsBrute的前提上再进行编写把这几个功能增加上去就更加方便了。
  讲师:沦沦、花开若相惜
  
  企业是否有办法防御这三个工具?需要使用什么样的方法?京安小妹
  
  端口的话可以进行加防火墙规则进行处理,
  然后域名的话一般公开到外网早晚都会被收集到最好的办法就是在上线前就进行全面的安全测试通过之后进行上线。
  讲师:沦沦、花开若相惜
  
  本期JSRC 安全小课堂到此结束。更多内容请期待下期安全小课堂,如果还有你希望出现在安全小课堂内容暂时未出现,也欢迎留言告诉我们。

Machinae:一款信息收集自动化工具

采集交流优采云 发表了文章 • 0 个评论 • 101 次浏览 • 2022-05-06 05:14 • 来自相关话题

  Machinae:一款信息收集自动化工具
  
  Machinae安全情报收集工具
  Machinae这款开源工具可以帮助广大研究人员从各个开放网站/feed收集跟网络安全有关的数据,例如IP地址、域名、URL、电子邮件地址、文件哈希和SSL指纹等等。该工具受到了Automater的启发,旨在从以下四个方面提升原工具的功能:
  1、 源代码:将Automater以Python 3进行重构,提升功能扩展性;
  2、 配置:使用了可读性更强的配置格式-YAML;
  3、 输入:支持JSON格式解析,需编写正则表达式;
  4、 输出:支持额外的输出类型,包括JSON等可选项;
  工具安装
  大家可以使用pip3来安装Machinae:
  pip3 install machinae
  或者,大家也可以直接从本项目的GitHub代码库上将代码克隆至本地:
  pip3 install git+https://github.com/HurricaneLabs/machinae.git
  点击【这里】获取最新版本的工具配置文件,并将其存入/etc/machinae.yml。
  配置文件
  Machinae提供了功能强大的配置整合系统,我们可以直接对系统默认配置文件machinae.yml进行修改来实现配置的更新,通过修改配置文件,我们可以实现整个系统环境中所有用户的配置修改。系统级配置文件位于项目当前目录下,可以使用MACHINAE_CONFIG环境变量来进行设置,或者直接在命令行中使用“-c”或“--config”来配置。当然了,如果你不想更新全局配置文件,你可以使用“--nomerge”选项来禁用该功能。
  你可以在machinae.yml文件中进行下列设置来启用Fortinet Category站点:
  fortinet_classify:default: true
  或使用下列命令禁用类似Virus Total pDNS这样的站点:
  vt_ip:default: falsevt_domain:default: false
  工具使用
  Machinae的使用跟Automater非常相似:
  usage:machinae [-h] [-c CONFIG] [--nomerge] [-d DELAY] [-f FILE] [-i INFILE] [-v] [-o {D,J,N,S}] [-O{ipv4,ipv6,fqdn,email,sslfp,hash,url}] [-q] [-s SITES] [-a AUTH] [-HHTTP_PROXY] [--dump-config | --detect-otype] ...
  1、 使用“-c/--config”和 “--nomerge”选项来查看命令细节;
  2、 Machinae支持“-d/--delay”选项,这个跟Automater类似,但Machinae默认使用参数值为“0”。
  3、 Machinae的输出由下列两个参数控制:
  “-o“控制输出格式,可以使用下列命令实现控制:
  (1)“N“为默认标准输出;
  (2)“D“为默认标准输出格式,但“.”字符会被替换;
  (3)“J“为JSON输出;
  “-f/--file“指定输出文件的写入位置,默认“-”为stdout。
  4、 Machinae还支持使用“-H”或“--http-proxy”命令行参数来设置HTTP代理。
  数据源
  Machinae支持以下数据来源(更多数据源正在添加中…):
  IPVoid
  URLVoid
  URLUnshortener ()
  Malc0de
  SANS
  FreeGeoIP(freegeoip.io)
  FortinetCategory
  VirusTotalpDNS (通过网络爬虫)
  VirusTotalpDNS (通过 JSONAPI)
  VirusTotalURL Report (通过 JSON API)
  VirusTotalFile Report (通过 JSON API)
  ReputationAuthority
  ThreatExpert
  VxVault
  ProjectHoneypot
  McAfee 威胁情报
  StopForumSpam
  CymruMHR
  ICSICertificate Notary
  TotalHash(默认禁用)
  DomainToolsParsed Whois (需要 API 密钥)
  DomainToolsReverse Whois (需要 API 密钥)
  DomainToolsReputation
  IPWHOIS (实用 RIRREST 接口)
  HackedIP
  MetadefenderCloud (需要 API 密钥)
  GreyNoise(需要 API 密钥)
  IBMXForce (需要 API 密钥) 查看全部

  Machinae:一款信息收集自动化工具
  
  Machinae安全情报收集工具
  Machinae这款开源工具可以帮助广大研究人员从各个开放网站/feed收集跟网络安全有关的数据,例如IP地址、域名、URL、电子邮件地址、文件哈希和SSL指纹等等。该工具受到了Automater的启发,旨在从以下四个方面提升原工具的功能:
  1、 源代码:将Automater以Python 3进行重构,提升功能扩展性;
  2、 配置:使用了可读性更强的配置格式-YAML;
  3、 输入:支持JSON格式解析,需编写正则表达式;
  4、 输出:支持额外的输出类型,包括JSON等可选项;
  工具安装
  大家可以使用pip3来安装Machinae:
  pip3 install machinae
  或者,大家也可以直接从本项目的GitHub代码库上将代码克隆至本地:
  pip3 install git+https://github.com/HurricaneLabs/machinae.git
  点击【这里】获取最新版本的工具配置文件,并将其存入/etc/machinae.yml。
  配置文件
  Machinae提供了功能强大的配置整合系统,我们可以直接对系统默认配置文件machinae.yml进行修改来实现配置的更新,通过修改配置文件,我们可以实现整个系统环境中所有用户的配置修改。系统级配置文件位于项目当前目录下,可以使用MACHINAE_CONFIG环境变量来进行设置,或者直接在命令行中使用“-c”或“--config”来配置。当然了,如果你不想更新全局配置文件,你可以使用“--nomerge”选项来禁用该功能。
  你可以在machinae.yml文件中进行下列设置来启用Fortinet Category站点:
  fortinet_classify:default: true
  或使用下列命令禁用类似Virus Total pDNS这样的站点:
  vt_ip:default: falsevt_domain:default: false
  工具使用
  Machinae的使用跟Automater非常相似:
  usage:machinae [-h] [-c CONFIG] [--nomerge] [-d DELAY] [-f FILE] [-i INFILE] [-v] [-o {D,J,N,S}] [-O{ipv4,ipv6,fqdn,email,sslfp,hash,url}] [-q] [-s SITES] [-a AUTH] [-HHTTP_PROXY] [--dump-config | --detect-otype] ...
  1、 使用“-c/--config”和 “--nomerge”选项来查看命令细节;
  2、 Machinae支持“-d/--delay”选项,这个跟Automater类似,但Machinae默认使用参数值为“0”。
  3、 Machinae的输出由下列两个参数控制:
  “-o“控制输出格式,可以使用下列命令实现控制:
  (1)“N“为默认标准输出;
  (2)“D“为默认标准输出格式,但“.”字符会被替换;
  (3)“J“为JSON输出;
  “-f/--file“指定输出文件的写入位置,默认“-”为stdout。
  4、 Machinae还支持使用“-H”或“--http-proxy”命令行参数来设置HTTP代理。
  数据源
  Machinae支持以下数据来源(更多数据源正在添加中…):
  IPVoid
  URLVoid
  URLUnshortener ()
  Malc0de
  SANS
  FreeGeoIP(freegeoip.io)
  FortinetCategory
  VirusTotalpDNS (通过网络爬虫)
  VirusTotalpDNS (通过 JSONAPI)
  VirusTotalURL Report (通过 JSON API)
  VirusTotalFile Report (通过 JSON API)
  ReputationAuthority
  ThreatExpert
  VxVault
  ProjectHoneypot
  McAfee 威胁情报
  StopForumSpam
  CymruMHR
  ICSICertificate Notary
  TotalHash(默认禁用)
  DomainToolsParsed Whois (需要 API 密钥)
  DomainToolsReverse Whois (需要 API 密钥)
  DomainToolsReputation
  IPWHOIS (实用 RIRREST 接口)
  HackedIP
  MetadefenderCloud (需要 API 密钥)
  GreyNoise(需要 API 密钥)
  IBMXForce (需要 API 密钥)

Pigat:一款被动信息收集聚合工具

采集交流优采云 发表了文章 • 0 个评论 • 67 次浏览 • 2022-05-06 05:12 • 来自相关话题

  Pigat:一款被动信息收集聚合工具
  0x00 前言
  Pigat即Passive Intelligence Gathering Aggregation Tool,翻译过来就是被动信息收集聚合工具,既然叫聚合工具,也就是说该工具将多款被动信息收集工具结合在了一起,进而提高了平时信息收集的效率。
  早在半个月前便萌生了开发这个工具的想法,但是一直没有时间,正好最近有时间了,就简单写一下。
  因为我没有太多的开发经验,所以这款工具难免存在需要改进的地方,因此希望各位大佬能够多多反馈这款工具存在的问题,一起完善这个工具。
  0x01 工具原理及功能概述
  这款工具的原理很简单,用户输入目标url,再利用爬虫获取相关被动信息收集网站关于该url的信息,最后回显出来。
  目前该工具具备8个功能,原该工具具备7个功能,分别为收集目标的资产信息、CMS信息、DNS信息、备案信息、IP地址、子域名信息、whois信息,现加入第8个功能:如果在程序中两次IP查询目标URL的结果一致,那么查询该IP的端口,即端口查询功能。
  0x02 工具简单上手使用1、查看帮助信息
  # python pigat.py -h
  
  2、指定url进行信息获取
  如果只指定url这一个参数,没有指定其他参数,则默认获取该url的所有信息
  # python pigat.py -u teamssix.com
  
  
  3、指定url进行单项信息获取
  # python pigat.py -u baidu.com --assert
  
  4、指定url进行多项信息获取
  # python pigat.py -u teamssix.com --ip --cms
  
  0x03 工具获取
  关于此工具的下载地址可在个人公众号(TeamsSix)回复“pigta”获取。 查看全部

  Pigat:一款被动信息收集聚合工具
  0x00 前言
  Pigat即Passive Intelligence Gathering Aggregation Tool,翻译过来就是被动信息收集聚合工具,既然叫聚合工具,也就是说该工具将多款被动信息收集工具结合在了一起,进而提高了平时信息收集的效率。
  早在半个月前便萌生了开发这个工具的想法,但是一直没有时间,正好最近有时间了,就简单写一下。
  因为我没有太多的开发经验,所以这款工具难免存在需要改进的地方,因此希望各位大佬能够多多反馈这款工具存在的问题,一起完善这个工具。
  0x01 工具原理及功能概述
  这款工具的原理很简单,用户输入目标url,再利用爬虫获取相关被动信息收集网站关于该url的信息,最后回显出来。
  目前该工具具备8个功能,原该工具具备7个功能,分别为收集目标的资产信息、CMS信息、DNS信息、备案信息、IP地址、子域名信息、whois信息,现加入第8个功能:如果在程序中两次IP查询目标URL的结果一致,那么查询该IP的端口,即端口查询功能。
  0x02 工具简单上手使用1、查看帮助信息
  # python pigat.py -h
  
  2、指定url进行信息获取
  如果只指定url这一个参数,没有指定其他参数,则默认获取该url的所有信息
  # python pigat.py -u teamssix.com
  
  
  3、指定url进行单项信息获取
  # python pigat.py -u baidu.com --assert
  
  4、指定url进行多项信息获取
  # python pigat.py -u teamssix.com --ip --cms
  
  0x03 工具获取
  关于此工具的下载地址可在个人公众号(TeamsSix)回复“pigta”获取。

一款针对网站的网络侦察和信息收集工具

采集交流优采云 发表了文章 • 0 个评论 • 55 次浏览 • 2022-05-06 02:14 • 来自相关话题

  一款针对网站的网络侦察和信息收集工具
  该脚本使用了“Sublist3r”项目来执行子域名扫描任务。
  项目地址:【GitHub传送门】
  该脚本使用了“waybacktool”项目来检测waybackmachine。
  项目地址:【GitHub传送门】
  除此之外,该工具还能够在扫描一个纯JS实现的网站时,自动激活JS,并且支持添加Dockerfile。
  功能介绍工具安装&配置
  首先,广大用户需要使用下列命令将该项目源码克隆至本地:
  git clone https://github.com/c0dejump/HawkScan.git
  接下来,使用下列命令完成工具依赖组件的安装配置:
  pip(3) install -r requirements.txt
  如果pip3命令执行出现问题的话,可以尝试使用下列命令:
  sudo python3 -m pip install -r requirements.txt
  如果在安装“dryscrape”库的过程中遇到问题,请参考这篇【文档】解决。
  工具使用
  usage: hawkscan.py [-h] [-u URL] [-w WORDLIST] [-s SUBDOMAINS] [-t THREAD] [-a USER_AGENT] [--redirect] [-r] [-p PREFIX] [-o OUTPUT] [--cookie COOKIE_] [--exclude EXCLUDE] [--timesleep TS] [--auto]<br /><br />optional arguments:<br /><br /> -h, --help 显示帮助信息和退出<br /><br /> -u URL 待扫描的URL地址[必须]<br /><br /> -w WORDLIST 用于URL模糊测试的字典,默认为dico.txt<br /><br /> -s SUBDOMAINS 子域名扫描<br /><br /> -t THREAD URL模糊测试所使用的线程数量,默认为20<br /><br /> -a USER_AGENT 选择user-agent<br /><br /> --redirect 设置扫描重定向响应 (301/302)<br /><br /> -r 递归目录/文件<br /><br /> -p PREFIX 在字典中添加扫描前缀<br /><br /> -o OUTPUT 将扫描结果输出至site_scan.txt<br /><br /> -b 添加一个备份文件扫描,例如'exemple.com/~exemple/, exemple.com/ex.php.bak...'<br /><br /> -H HEADER_ 修改HEADER<br /><br /> --exclude EXCLUDE 通过定义一个页面或响应码状态类型来排除某个页面<br /><br /> --timesleep TS 如果扫描过程中目标站点不稳定,可以使用timesleep/rate-limit选项<br /><br /> --auto 根据目标站点响应状态自动增加扫描线程,最大为30<br /><br /> --update 工具自动更新
  使用样例基础使用:
  使用重定向:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --redirect
  添加备份文件扫描:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 -b
  排除指定的扫描页面:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --exclude https://www.exemple.com/profile.php?id=1
  排除响应码:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --exclude 403
  项目地址
  HawkScan:【GitHub传送门】 查看全部

  一款针对网站的网络侦察和信息收集工具
  该脚本使用了“Sublist3r”项目来执行子域名扫描任务。
  项目地址:【GitHub传送门】
  该脚本使用了“waybacktool”项目来检测waybackmachine。
  项目地址:【GitHub传送门】
  除此之外,该工具还能够在扫描一个纯JS实现的网站时,自动激活JS,并且支持添加Dockerfile。
  功能介绍工具安装&配置
  首先,广大用户需要使用下列命令将该项目源码克隆至本地:
  git clone https://github.com/c0dejump/HawkScan.git
  接下来,使用下列命令完成工具依赖组件的安装配置:
  pip(3) install -r requirements.txt
  如果pip3命令执行出现问题的话,可以尝试使用下列命令:
  sudo python3 -m pip install -r requirements.txt
  如果在安装“dryscrape”库的过程中遇到问题,请参考这篇【文档】解决。
  工具使用
  usage: hawkscan.py [-h] [-u URL] [-w WORDLIST] [-s SUBDOMAINS] [-t THREAD] [-a USER_AGENT] [--redirect] [-r] [-p PREFIX] [-o OUTPUT] [--cookie COOKIE_] [--exclude EXCLUDE] [--timesleep TS] [--auto]<br /><br />optional arguments:<br /><br /> -h, --help 显示帮助信息和退出<br /><br /> -u URL 待扫描的URL地址[必须]<br /><br /> -w WORDLIST 用于URL模糊测试的字典,默认为dico.txt<br /><br /> -s SUBDOMAINS 子域名扫描<br /><br /> -t THREAD URL模糊测试所使用的线程数量,默认为20<br /><br /> -a USER_AGENT 选择user-agent<br /><br /> --redirect 设置扫描重定向响应 (301/302)<br /><br /> -r 递归目录/文件<br /><br /> -p PREFIX 在字典中添加扫描前缀<br /><br /> -o OUTPUT 将扫描结果输出至site_scan.txt<br /><br /> -b 添加一个备份文件扫描,例如'exemple.com/~exemple/, exemple.com/ex.php.bak...'<br /><br /> -H HEADER_ 修改HEADER<br /><br /> --exclude EXCLUDE 通过定义一个页面或响应码状态类型来排除某个页面<br /><br /> --timesleep TS 如果扫描过程中目标站点不稳定,可以使用timesleep/rate-limit选项<br /><br /> --auto 根据目标站点响应状态自动增加扫描线程,最大为30<br /><br /> --update 工具自动更新
  使用样例基础使用:
  使用重定向:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --redirect
  添加备份文件扫描:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 -b
  排除指定的扫描页面:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --exclude https://www.exemple.com/profile.php?id=1
  排除响应码:
  python hawkscan.py -u https://www.exemple.com -w dico_extra.txt -t 5 --exclude 403
  项目地址
  HawkScan:【GitHub传送门】

WIG - Web应用程序信息收集工具

采集交流优采云 发表了文章 • 0 个评论 • 117 次浏览 • 2022-05-06 02:11 • 来自相关话题

  WIG - Web应用程序信息收集工具
  
  
  WIG(WebApp Information Gatherer)是一个Web应用程序信息收集工具,可以识别众多内容管理系统和其他管理应用程序。
  应用程序指纹识别基于校验和和不同版本的CMSes的已知文件的字符串匹配。这导致为每个检测到的CMS及其版本计算得分。每个检测到的CMS都会与最可能的版本一起显示。分数计算基于权重和给定校验和的“命中”数量。
  WIG还试图根据“服务器”和“x-powered-by”标头猜测服务器上的操作系统。WIG中包含一个包含不同操作系统的已知头值的数据库,它允许WIG猜测Microsoft Windows版本和Linux发行版和版本。
  注意:它需要Python 3。
  用法:
  wig.py [-h] [-l INPUT_FILE] [-q] [-n STOP_AFTER] [-a] [-m] [-u] [-d] [-t THREADS] [--no_cache_load] [--no_cache_save] [-N]
  [--verosity] [--proxy PROXY] [-w OUTPUT_FILE]
  [URL/]
  WebApp信息收集器
  位置参数:
  URL 要扫描的网址,例如
  可选参数:-h, -help显示此帮助消息并退出
  -l INPUT_FILE带网址的文件,每行一个。
  -q 将假发设置为在运行期间不提示用户输入
  -n STOP_AFTER检测到此数量的CMS后停止。
  默认:
  -a 在检测到第一个CMS后不要停止
  -m 在没有提出更多请求的情况下更难找到匹配项
  -u 用户代理在请求中使用
  -d 禁用子域搜索
  -t THREADS要使用的线程数
  --no_cache_load不加载缓存的响应
  --no_cache_save不保存缓存供以后使用
  -N --no_cache_load和--no_cache_save的快捷方式
  --verbosity,-v增加详细程度。多次使用以获取更多信息
  --proxy PROXY隧道通过代理(格式:localhost:8080)
  -w OUTPUT_FILE要将结果转储到(JSON)的文件
  WIG的默认行为是识别CMS,并在CMS的版本检测后退出。这样做是为了限制发送到目标服务器的流量。通过设置'-a'标志可以覆盖此行为,在这种情况下,假发将测试所有已知指纹。由于某些应用程序配置不使用文件和资源的默认位置,因此可以使假发获取在扫描期间遇到的所有静态资源。这是通过'-c'选项完成的。'-m'选项针对所有提取的URL测试所有指纹,如果默认位置已更改,这将非常有用。
  下载地址:
   查看全部

  WIG - Web应用程序信息收集工具
  
  
  WIG(WebApp Information Gatherer)是一个Web应用程序信息收集工具,可以识别众多内容管理系统和其他管理应用程序。
  应用程序指纹识别基于校验和和不同版本的CMSes的已知文件的字符串匹配。这导致为每个检测到的CMS及其版本计算得分。每个检测到的CMS都会与最可能的版本一起显示。分数计算基于权重和给定校验和的“命中”数量。
  WIG还试图根据“服务器”和“x-powered-by”标头猜测服务器上的操作系统。WIG中包含一个包含不同操作系统的已知头值的数据库,它允许WIG猜测Microsoft Windows版本和Linux发行版和版本。
  注意:它需要Python 3。
  用法:
  wig.py [-h] [-l INPUT_FILE] [-q] [-n STOP_AFTER] [-a] [-m] [-u] [-d] [-t THREADS] [--no_cache_load] [--no_cache_save] [-N]
  [--verosity] [--proxy PROXY] [-w OUTPUT_FILE]
  [URL/]
  WebApp信息收集器
  位置参数:
  URL 要扫描的网址,例如
  可选参数:-h, -help显示此帮助消息并退出
  -l INPUT_FILE带网址的文件,每行一个。
  -q 将假发设置为在运行期间不提示用户输入
  -n STOP_AFTER检测到此数量的CMS后停止。
  默认:
  -a 在检测到第一个CMS后不要停止
  -m 在没有提出更多请求的情况下更难找到匹配项
  -u 用户代理在请求中使用
  -d 禁用子域搜索
  -t THREADS要使用的线程数
  --no_cache_load不加载缓存的响应
  --no_cache_save不保存缓存供以后使用
  -N --no_cache_load和--no_cache_save的快捷方式
  --verbosity,-v增加详细程度。多次使用以获取更多信息
  --proxy PROXY隧道通过代理(格式:localhost:8080)
  -w OUTPUT_FILE要将结果转储到(JSON)的文件
  WIG的默认行为是识别CMS,并在CMS的版本检测后退出。这样做是为了限制发送到目标服务器的流量。通过设置'-a'标志可以覆盖此行为,在这种情况下,假发将测试所有已知指纹。由于某些应用程序配置不使用文件和资源的默认位置,因此可以使假发获取在扫描期间遇到的所有静态资源。这是通过'-c'选项完成的。'-m'选项针对所有提取的URL测试所有指纹,如果默认位置已更改,这将非常有用。
  下载地址:
  

一款通过LDAP实现的活动目录信息收集工具

采集交流优采云 发表了文章 • 0 个评论 • 61 次浏览 • 2022-05-05 09:27 • 来自相关话题

  一款通过LDAP实现的活动目录信息收集工具
  
  LDAPDomainDump介绍
  LDAPDomainDump是一款通过LDAP实现的活动目录信息收集工具。在一个活动目录域中,任何一名认证用户都可以通过LDAP来获取大量有趣的信息。因此,在网络侦查阶段的信息收集过程中,LDAP就变成了一个非常“有价值”的协议了。
  但问题就在于,一般通过LDAP导出的数据并非可读格式,而ldapdomaindump这款工具正好可以解决这个问题。它可以通过LDAP收集和解析数据,并将其输出为人类可读的HTML格式以及机器可读的JSON和CSV/TSV格式。
  该工具的设计意图:
  1、快速查看目标域中的所有用户/组/计算机/策略。
  2、通过用户名和密码完成认证(要求ldap3>= 1.3.1)。
  3、可以使用现有的认证链接与LDAP服务进行交互。
  工具将会输出多个包含目标域信息的概述对象:
  1、domain_groups: 目标域的组列表
  2、domain_users: 目标域的用户列表
  3、domain_computers: 目标域的计算机账号列表
  4、domain_policy: 域策略,例如是否需要密码等
  5、domain_trusts: 传入和传出域属性以及是否受信任
  以及两个分组文件:
  1、domain_users_by_group: 每一个组中的域用户成员
  2、domain_computers_by_os:根据操作系统对域计算机分类
  依赖组件
  1、要求ldap3> 2.0
  2、dnspython
  工具安装
  上述的工具依赖组件可以通过下列命令完成安装:
  pip install ldap3 dnspython
  我们可以使用下列命令从该项目的git源直接安装ldapdomaindump包:
  python setup.py install
  或者直接使用pip命令安装最新的发布版本呢:
  pip install ldapdomaindump
  工具使用
  总共有下列三种工具使用方法:
  1、直接运行“pythonldapdomaindump.py”
  2、安装后,运行“python -mldapdomaindump”
  3、安装后,运行“ldapdomaindump”
  使用-h参数查看工具的帮助菜单:
  usage:ldapdomaindump.py [-h] [-u USERNAME] [-p PASSWORD] [-at {NTLM,SIMPLE}] [-o DIRECTORY] [--no-html][--no-json] [--no-grep] [--grouped-json] [-dDELIMITER] [-r] [-n DNS_SERVER] [-m] HOSTNAME Domaininformation dumper via LDAP. Dumps users/computers/groups and OS/membershipinformation to HTML/JSON/greppable output. Required options: HOSTNAME Hostname/ip or ldap://host:portconnection string to connect to (useldaps:// to use SSL) Main options: -h, --help show this help message and exit -u USERNAME, --user USERNAME DOMAIN\username forauthentication, leave empty for anonymousauthentication -p PASSWORD, --password PASSWORD Password or LM:NTLM hash, willprompt if not specified -at {NTLM,SIMPLE}, --authtype {NTLM,SIMPLE} Authentication type(NTLM or SIMPLE, default: NTLM) Output options: -o DIRECTORY, --outdir DIRECTORY Directory in which thedump will be saved (default: current) --no-html Disable HTML output --no-json Disable JSON output --no-grep Disable Greppable output --grouped-json Also write json files for grouped files(default: disabled) -d DELIMITER, --delimiter DELIMITER Field delimiter forgreppable output (default: tab) Miscoptions: -r, --resolve Resolve computer hostnames (might takea while and cause high traffic onlarge networks) -n DNS_SERVER, --dns-server DNS_SERVER Use custom DNS resolverinstead of system DNS (try a domain controller IP) -m, --minimal Only query minimal set of attributesto limit memmory Usage<br />
  工具选项
  1、认证选项(Authentication):大多数活动目录服务器都支持NTLM认证,针对少数特例,可以使用—authtype SIMPLE。
  2、输出格式(Output formats):工具的默认输出格式为HTML和JSON。
  3、DNS解析(DNS resolving):-r选项可以决定是否需要将计算机的DNSHostName属性解析为IPv4地址。
  4、网络占用和内存使用:默认配置下,ldapdomaindump可以尝试将读取到的每一个属性参数写入磁盘中的.json文件,但此时可能会增加网络和内存占用量,我们可以使用—minimal选项来调整。
  项目地址
  LDAPDomainDump:【GitHub传送门】 查看全部

  一款通过LDAP实现的活动目录信息收集工具
  
  LDAPDomainDump介绍
  LDAPDomainDump是一款通过LDAP实现的活动目录信息收集工具。在一个活动目录域中,任何一名认证用户都可以通过LDAP来获取大量有趣的信息。因此,在网络侦查阶段的信息收集过程中,LDAP就变成了一个非常“有价值”的协议了。
  但问题就在于,一般通过LDAP导出的数据并非可读格式,而ldapdomaindump这款工具正好可以解决这个问题。它可以通过LDAP收集和解析数据,并将其输出为人类可读的HTML格式以及机器可读的JSON和CSV/TSV格式。
  该工具的设计意图:
  1、快速查看目标域中的所有用户/组/计算机/策略。
  2、通过用户名和密码完成认证(要求ldap3>= 1.3.1)。
  3、可以使用现有的认证链接与LDAP服务进行交互。
  工具将会输出多个包含目标域信息的概述对象:
  1、domain_groups: 目标域的组列表
  2、domain_users: 目标域的用户列表
  3、domain_computers: 目标域的计算机账号列表
  4、domain_policy: 域策略,例如是否需要密码等
  5、domain_trusts: 传入和传出域属性以及是否受信任
  以及两个分组文件:
  1、domain_users_by_group: 每一个组中的域用户成员
  2、domain_computers_by_os:根据操作系统对域计算机分类
  依赖组件
  1、要求ldap3> 2.0
  2、dnspython
  工具安装
  上述的工具依赖组件可以通过下列命令完成安装:
  pip install ldap3 dnspython
  我们可以使用下列命令从该项目的git源直接安装ldapdomaindump包:
  python setup.py install
  或者直接使用pip命令安装最新的发布版本呢:
  pip install ldapdomaindump
  工具使用
  总共有下列三种工具使用方法:
  1、直接运行“pythonldapdomaindump.py”
  2、安装后,运行“python -mldapdomaindump”
  3、安装后,运行“ldapdomaindump”
  使用-h参数查看工具的帮助菜单:
  usage:ldapdomaindump.py [-h] [-u USERNAME] [-p PASSWORD] [-at {NTLM,SIMPLE}] [-o DIRECTORY] [--no-html][--no-json] [--no-grep] [--grouped-json] [-dDELIMITER] [-r] [-n DNS_SERVER] [-m] HOSTNAME Domaininformation dumper via LDAP. Dumps users/computers/groups and OS/membershipinformation to HTML/JSON/greppable output. Required options: HOSTNAME Hostname/ip or ldap://host:portconnection string to connect to (useldaps:// to use SSL) Main options: -h, --help show this help message and exit -u USERNAME, --user USERNAME DOMAIN\username forauthentication, leave empty for anonymousauthentication -p PASSWORD, --password PASSWORD Password or LM:NTLM hash, willprompt if not specified -at {NTLM,SIMPLE}, --authtype {NTLM,SIMPLE} Authentication type(NTLM or SIMPLE, default: NTLM) Output options: -o DIRECTORY, --outdir DIRECTORY Directory in which thedump will be saved (default: current) --no-html Disable HTML output --no-json Disable JSON output --no-grep Disable Greppable output --grouped-json Also write json files for grouped files(default: disabled) -d DELIMITER, --delimiter DELIMITER Field delimiter forgreppable output (default: tab) Miscoptions: -r, --resolve Resolve computer hostnames (might takea while and cause high traffic onlarge networks) -n DNS_SERVER, --dns-server DNS_SERVER Use custom DNS resolverinstead of system DNS (try a domain controller IP) -m, --minimal Only query minimal set of attributesto limit memmory Usage<br />
  工具选项
  1、认证选项(Authentication):大多数活动目录服务器都支持NTLM认证,针对少数特例,可以使用—authtype SIMPLE。
  2、输出格式(Output formats):工具的默认输出格式为HTML和JSON。
  3、DNS解析(DNS resolving):-r选项可以决定是否需要将计算机的DNSHostName属性解析为IPv4地址。
  4、网络占用和内存使用:默认配置下,ldapdomaindump可以尝试将读取到的每一个属性参数写入磁盘中的.json文件,但此时可能会增加网络和内存占用量,我们可以使用—minimal选项来调整。
  项目地址
  LDAPDomainDump:【GitHub传送门】

网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态

采集交流优采云 发表了文章 • 0 个评论 • 156 次浏览 • 2022-05-03 17:46 • 来自相关话题

  网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态
  ------------------------------------------------------
  免责声明:仅可用于研究学习使用,切勿用于非法犯罪活动,未经双方同意攻击目标是非法的.
  ---------------------------------------------------------------
  一款适用于以HW行动/红队/渗透测试团队为场景的移动端(Android、iOS、WEB、H5、静态网站)信息收集扫描工具,可以帮助渗透测试工程师、攻击队成员、红队成员快速收集到移动端或者静态WEB站点中关键的资产信息并提供基本的信息输出,如:Title、Domain、CDN、指纹信息、状态信息等。
  适用场景功能介绍:
  
  详细操作使用见: 查看全部

  网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态
  ------------------------------------------------------
  免责声明:仅可用于研究学习使用,切勿用于非法犯罪活动,未经双方同意攻击目标是非法的.
  ---------------------------------------------------------------
  一款适用于以HW行动/红队/渗透测试团队为场景的移动端(Android、iOS、WEB、H5、静态网站)信息收集扫描工具,可以帮助渗透测试工程师、攻击队成员、红队成员快速收集到移动端或者静态WEB站点中关键的资产信息并提供基本的信息输出,如:Title、Domain、CDN、指纹信息、状态信息等。
  适用场景功能介绍:
  
  详细操作使用见:

渗透测试-信息收集

采集交流优采云 发表了文章 • 0 个评论 • 81 次浏览 • 2022-05-02 16:14 • 来自相关话题

  渗透测试-信息收集
  前言
  信息收集作为渗透测试的重要组成部分。这个过程所需要收集的信息包括端口信息、业务信息、域名信息、DNS信息等等。下面会分步骤一一详细介绍,并且介绍比较好用的信息收集工具。
  端口信息收集
  
  所谓的端口,就好像是门牌号一样,客户端可以通过ip地址找到对应的服务器端,但是服务器端是有很多端口的,每个应用程序对应一个端口号,通过类似门牌号的端口号,客户端才能真正访问到该服务器。为了对端口进行区分,将每个端口进行了编号,这就是端口号。
  NMAP
  nmap是一个网络连接端扫描软件,用来扫描网上电脑开放的网络连接端。确定哪些服务运行在哪些连接端,并且推断计算机哪些服务是开放的。它是网络管理员必用的软件之一,以及用以评估网络系统安全。
  在kali使用命令nmap -sS-p 1-50000 -v 127.0.0.1,代表扫描目标127.0.0.1的1到50000端口。从结果上看,只有22端口开放。
  
  
  网站目录信息收集
  
  在渗透测试中,扫描网站目录结构,可以是否存在遍历目录漏洞,或者敏感文件泄漏,比如php探针。
  dirsearch
  它是一个python开发的目录扫描工具。目的是扫描网站的敏感文件和目录,进行详细的信息收集,从而找到突破口。
  优点:多线程、可保持连接、支持多种后缀(-e|–extensions asp,php)、生成报告(纯文本,JSON)、启发式检测无效的网页、递归的暴力扫描、支持HTTP代理、用户代理随机化、批量处理、请求延迟等等。
  使用:python dirsearch.py -u 。使用之前请确保已安装python环境,dirsearch自带的字典在db目录下。常用的参数:
  -u 指定网址
  -e 指定网站语言
  -w 指定字典
  -r 递归目录(跑出目录后,继续跑目录下面的目录)
  --random-agents 使用随机UA
  
  御剑yjdirscan
  功能特点:
  1.根据状态码探测200,探测出网站真实存在的路径文件。
  2.扫描线程自定义,用户可根据自身的扫描需要和电脑的配置来设置调节扫描线程。
  3.自定义选择字典,可以根据扫描网站的特点自行添加字典。还可以导入用户自己的字典,不使用御剑自带字典,使得功能拓展性更强,扫描功能可进一步增强。
  
  dirmap
  这是一款web目录扫描工具。
  1. 支持n个target\*n个payload并发
  2. 支持递归扫描
  3. 支持自定义需要递归扫描的状态码
  4. 支持(单|多)字典扫描
  5. 支持自定义字符集爆破
  6. 支持爬虫动态字典扫描
  7. 支持自定义标签fuzz目标url
  8. 自定义请求User-Agent、随机延时、请求超时时间、请求代理
  9. 自定义正则表达式匹配假性404页面
  10. 自定义要处理的响应状态码
  11. 自定义跳过大小为x的页面
  12. 自定义显示content-type、显示页面大小,按域名去重复保存结果
  
  
  子域名收集
  
  子域名,是顶级域名(.com、.cn、.top)的下一级,域名整体包括两个“.”或包括一个“/”。如:百度顶级域名为。其下有、、等子域名。收集子域名可以很大程度知道目标所拥有的网站等资产信息。
  OneForAll
  通常,一台服务器上有很多个站点,这些站点之间没有必然的联系,是相互独立的,使用的是不同的域名(甚至端口都不同),但是它们却共存在一台服务器上。如果我们要对某一个站点进行直接渗透无法突破时,那么我们可以对同服务器的其他站点进行渗透,只要能发现一个缺口,就能渗透服务器上的整个站点。此时,我们需要进行子域名收集,而OneForAll是一款功能强大的子域名收集工具。
  安装依赖,pip install -r requirements.txt。
  使用命令:对于单个目标,python oneforall.py run。
  对于多个目标,可把目标保留在txt文件。
  再调用命令pythononeforall.py --targets ./example.txt run。
  结果会自动保存在/root/OneForAll/oneforall/results/里面
  
  
  Layer子域名挖掘机
  Layer子域名挖掘机是一款域名查询工具,可提供网站子域名查询服务;拥有简洁的界面、简单的操作模式,支持服务接口、暴力搜索、同服挖掘三种模式,支持打开网站、复制域名、复制IP、复制CDN、导出域名、导出IP、导出域名+IP、导出域名+IP+WEB服务器以及导出存活网站。
   查看全部

  渗透测试-信息收集
  前言
  信息收集作为渗透测试的重要组成部分。这个过程所需要收集的信息包括端口信息、业务信息、域名信息、DNS信息等等。下面会分步骤一一详细介绍,并且介绍比较好用的信息收集工具。
  端口信息收集
  
  所谓的端口,就好像是门牌号一样,客户端可以通过ip地址找到对应的服务器端,但是服务器端是有很多端口的,每个应用程序对应一个端口号,通过类似门牌号的端口号,客户端才能真正访问到该服务器。为了对端口进行区分,将每个端口进行了编号,这就是端口号。
  NMAP
  nmap是一个网络连接端扫描软件,用来扫描网上电脑开放的网络连接端。确定哪些服务运行在哪些连接端,并且推断计算机哪些服务是开放的。它是网络管理员必用的软件之一,以及用以评估网络系统安全。
  在kali使用命令nmap -sS-p 1-50000 -v 127.0.0.1,代表扫描目标127.0.0.1的1到50000端口。从结果上看,只有22端口开放。
  
  
  网站目录信息收集
  
  在渗透测试中,扫描网站目录结构,可以是否存在遍历目录漏洞,或者敏感文件泄漏,比如php探针。
  dirsearch
  它是一个python开发的目录扫描工具。目的是扫描网站的敏感文件和目录,进行详细的信息收集,从而找到突破口。
  优点:多线程、可保持连接、支持多种后缀(-e|–extensions asp,php)、生成报告(纯文本,JSON)、启发式检测无效的网页、递归的暴力扫描、支持HTTP代理、用户代理随机化、批量处理、请求延迟等等。
  使用:python dirsearch.py -u 。使用之前请确保已安装python环境,dirsearch自带的字典在db目录下。常用的参数:
  -u 指定网址
  -e 指定网站语言
  -w 指定字典
  -r 递归目录(跑出目录后,继续跑目录下面的目录)
  --random-agents 使用随机UA
  
  御剑yjdirscan
  功能特点:
  1.根据状态码探测200,探测出网站真实存在的路径文件。
  2.扫描线程自定义,用户可根据自身的扫描需要和电脑的配置来设置调节扫描线程。
  3.自定义选择字典,可以根据扫描网站的特点自行添加字典。还可以导入用户自己的字典,不使用御剑自带字典,使得功能拓展性更强,扫描功能可进一步增强。
  
  dirmap
  这是一款web目录扫描工具。
  1. 支持n个target\*n个payload并发
  2. 支持递归扫描
  3. 支持自定义需要递归扫描的状态码
  4. 支持(单|多)字典扫描
  5. 支持自定义字符集爆破
  6. 支持爬虫动态字典扫描
  7. 支持自定义标签fuzz目标url
  8. 自定义请求User-Agent、随机延时、请求超时时间、请求代理
  9. 自定义正则表达式匹配假性404页面
  10. 自定义要处理的响应状态码
  11. 自定义跳过大小为x的页面
  12. 自定义显示content-type、显示页面大小,按域名去重复保存结果
  
  
  子域名收集
  
  子域名,是顶级域名(.com、.cn、.top)的下一级,域名整体包括两个“.”或包括一个“/”。如:百度顶级域名为。其下有、、等子域名。收集子域名可以很大程度知道目标所拥有的网站等资产信息。
  OneForAll
  通常,一台服务器上有很多个站点,这些站点之间没有必然的联系,是相互独立的,使用的是不同的域名(甚至端口都不同),但是它们却共存在一台服务器上。如果我们要对某一个站点进行直接渗透无法突破时,那么我们可以对同服务器的其他站点进行渗透,只要能发现一个缺口,就能渗透服务器上的整个站点。此时,我们需要进行子域名收集,而OneForAll是一款功能强大的子域名收集工具。
  安装依赖,pip install -r requirements.txt。
  使用命令:对于单个目标,python oneforall.py run。
  对于多个目标,可把目标保留在txt文件。
  再调用命令pythononeforall.py --targets ./example.txt run。
  结果会自动保存在/root/OneForAll/oneforall/results/里面
  
  
  Layer子域名挖掘机
  Layer子域名挖掘机是一款域名查询工具,可提供网站子域名查询服务;拥有简洁的界面、简单的操作模式,支持服务接口、暴力搜索、同服挖掘三种模式,支持打开网站、复制域名、复制IP、复制CDN、导出域名、导出IP、导出域名+IP、导出域名+IP+WEB服务器以及导出存活网站。
  

网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态

采集交流优采云 发表了文章 • 0 个评论 • 87 次浏览 • 2022-05-02 12:29 • 来自相关话题

  网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态
  ------------------------------------------------------
  免责声明:仅可用于研究学习使用,切勿用于非法犯罪活动,未经双方同意攻击目标是非法的.
  ---------------------------------------------------------------
  一款适用于以HW行动/红队/渗透测试团队为场景的移动端(Android、iOS、WEB、H5、静态网站)信息收集扫描工具,可以帮助渗透测试工程师、攻击队成员、红队成员快速收集到移动端或者静态WEB站点中关键的资产信息并提供基本的信息输出,如:Title、Domain、CDN、指纹信息、状态信息等。
  适用场景功能介绍:
  
  详细操作使用见: 查看全部

  网站采集工具 AppInfoScanner:移动端(Android、iOS、WEB、H5、静态
  ------------------------------------------------------
  免责声明:仅可用于研究学习使用,切勿用于非法犯罪活动,未经双方同意攻击目标是非法的.
  ---------------------------------------------------------------
  一款适用于以HW行动/红队/渗透测试团队为场景的移动端(Android、iOS、WEB、H5、静态网站)信息收集扫描工具,可以帮助渗透测试工程师、攻击队成员、红队成员快速收集到移动端或者静态WEB站点中关键的资产信息并提供基本的信息输出,如:Title、Domain、CDN、指纹信息、状态信息等。
  适用场景功能介绍:
  
  详细操作使用见:

红队攻防之信息收集总结

采集交流优采云 发表了文章 • 0 个评论 • 53 次浏览 • 2022-05-02 10:32 • 来自相关话题

  红队攻防之信息收集总结
  前言
  之前也总结过类似的信息收集相关的文章,但是每隔一段时间理解和手法都会有所不同,本文以hvv或授权但仅提供公司名称域名等情况下渗透测试的视角总结一些自己最近做信息收集的流程套路。
  信息收集一、初始已知信息
  前言中提到的两种情况,一般初始信息只有公司名称、个别官网域名、靶标名称等信息,以此为起点进行信息收集。
  二、搜寻根域名
  此步骤个人的经验是,面对大公司优先选择工信部备案查询,小公司用搜索引擎做起点,然后几种方式都可以过一遍,查漏补缺,尽量获取最全的信息。大部分公司根域名都不会很多,全部过一遍也不会用掉多少时间。
  1.搜索引擎
  搜索引擎直接搜索其公司名称,获取其相关根域名
  2.天眼查、企查查
  从天眼查、企查查等途径,输入公司名,查询其域名以及全资控股子公司的域名
  3.工信部备案
  工信部备案查询域名/ip地址(需要详细且正确的公司名称,结果也会很全面)
  #/Integrated/recordQuery
  4.fofa
  fofa查询其公司名称,获取相关域名
  5.站长之家
  使用其icp查询功能查询备案,当我们不知道公司完整名称的时候也可以使用此网站功能使用已知域名查询完整备案公司名称
  6.反查域名
  用已知的某些ip反查域名
  三、子域名
  在子域名收集这步本人一般不喜欢爆破的方式,子域名爆破比较依赖字典,字典小就收集不全,字典大就很费时间,所以一般优先在各类解析记录的网站查询。
  1.各类网站查询解析记录
  以bilibili为例:
  类似的网站非常多,这两个都是免费的,但是第二个要注册登录
  2.子域名爆破
  相关的工具很多,部分扫描器也自带子域名爆破功能或可安装相关插件。
  subDomainsBrute
  3.fofa、shodan
  利用这类工具对域名资产进行查询,如
  fofa语法domain=””
  4.OneForAll
  此工具会集成多种方式搜集子域名,包括dns查询、证书查询等,详情见其项目中的readme
  安装
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />3<br style="box-sizing: border-box;" />4<br style="box-sizing: border-box;" />5<br style="box-sizing: border-box;" />
  git clone https://github.com/shmilylty/OneForAll.git<br style="box-sizing: border-box;" />cd OneForAll/<br style="box-sizing: border-box;" />python3 -m pip install -U pip setuptools wheel -i https://mirrors.aliyun.com/pypi/simple/<br style="box-sizing: border-box;" />pip3 install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/<br style="box-sizing: border-box;" />python3 oneforall.py --help<br style="box-sizing: border-box;" />
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />
  python3 oneforall.py --target example.com run<br style="box-sizing: border-box;" />python3 oneforall.py --targets ./example.txt run<br style="box-sizing: border-box;" />
  四、ip
  ip列表不完全来源于域名解析,有一部分ip是直接使用ip地址提供服务的,需要提前收集这部分信息,另一部分是通过域名解析过来的。
  1.各类网站查询解析记录
  同子域名查询中的操作,但是需要做的是把ip列表导出
  2.解析域名
  将所有已收集到的子域名通过脚本批量调用dig或nslookup解析ip
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />
  nslookup xxx.com<br style="box-sizing: border-box;" />dig xxx.com @114.114.114.114<br style="box-sizing: border-box;" />
  编写脚本批量调用dig命令,导出结果
  或将域名列表放在在线解析网站中,导出其解析结果
  这个步骤中需要额外关注cdn的情况,绕过cdn寻找其真实ip,可参考这篇文档
  3.c段
  将前面已经获得的ip全部整理好,使用脚本进行排序,懒得写脚本也可以使用在线的功能
  如ip地址排序计算器
  得到排序好的ip,可以先自己判断哪些c段可能属于目标,再进行一些扫描和访问,整理更全面的ip列表。
  五、端口
  使用masscan、nmap等工具对端口信息进行收集
  六、web服务
  使用webfinder等工具扫描已整理ip列表的web常用端口,导出形如:port/以及:port/的web服务列表
  指纹识别
  1.
  2.
  七、漏扫1.主机扫描
  上文整理好的ip列表和域名列表,可以丢入主机扫描相关的扫描器中,如goby、Nessus等
  2.web扫描
  整理好web服务列表,可以丢入awvs等工具进行扫描,同时可以联动xray批量扫描 查看全部

  红队攻防之信息收集总结
  前言
  之前也总结过类似的信息收集相关的文章,但是每隔一段时间理解和手法都会有所不同,本文以hvv或授权但仅提供公司名称域名等情况下渗透测试的视角总结一些自己最近做信息收集的流程套路。
  信息收集一、初始已知信息
  前言中提到的两种情况,一般初始信息只有公司名称、个别官网域名、靶标名称等信息,以此为起点进行信息收集。
  二、搜寻根域名
  此步骤个人的经验是,面对大公司优先选择工信部备案查询,小公司用搜索引擎做起点,然后几种方式都可以过一遍,查漏补缺,尽量获取最全的信息。大部分公司根域名都不会很多,全部过一遍也不会用掉多少时间。
  1.搜索引擎
  搜索引擎直接搜索其公司名称,获取其相关根域名
  2.天眼查、企查查
  从天眼查、企查查等途径,输入公司名,查询其域名以及全资控股子公司的域名
  3.工信部备案
  工信部备案查询域名/ip地址(需要详细且正确的公司名称,结果也会很全面)
  #/Integrated/recordQuery
  4.fofa
  fofa查询其公司名称,获取相关域名
  5.站长之家
  使用其icp查询功能查询备案,当我们不知道公司完整名称的时候也可以使用此网站功能使用已知域名查询完整备案公司名称
  6.反查域名
  用已知的某些ip反查域名
  三、子域名
  在子域名收集这步本人一般不喜欢爆破的方式,子域名爆破比较依赖字典,字典小就收集不全,字典大就很费时间,所以一般优先在各类解析记录的网站查询。
  1.各类网站查询解析记录
  以bilibili为例:
  类似的网站非常多,这两个都是免费的,但是第二个要注册登录
  2.子域名爆破
  相关的工具很多,部分扫描器也自带子域名爆破功能或可安装相关插件。
  subDomainsBrute
  3.fofa、shodan
  利用这类工具对域名资产进行查询,如
  fofa语法domain=””
  4.OneForAll
  此工具会集成多种方式搜集子域名,包括dns查询、证书查询等,详情见其项目中的readme
  安装
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />3<br style="box-sizing: border-box;" />4<br style="box-sizing: border-box;" />5<br style="box-sizing: border-box;" />
  git clone https://github.com/shmilylty/OneForAll.git<br style="box-sizing: border-box;" />cd OneForAll/<br style="box-sizing: border-box;" />python3 -m pip install -U pip setuptools wheel -i https://mirrors.aliyun.com/pypi/simple/<br style="box-sizing: border-box;" />pip3 install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/<br style="box-sizing: border-box;" />python3 oneforall.py --help<br style="box-sizing: border-box;" />
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />
  python3 oneforall.py --target example.com run<br style="box-sizing: border-box;" />python3 oneforall.py --targets ./example.txt run<br style="box-sizing: border-box;" />
  四、ip
  ip列表不完全来源于域名解析,有一部分ip是直接使用ip地址提供服务的,需要提前收集这部分信息,另一部分是通过域名解析过来的。
  1.各类网站查询解析记录
  同子域名查询中的操作,但是需要做的是把ip列表导出
  2.解析域名
  将所有已收集到的子域名通过脚本批量调用dig或nslookup解析ip
  1<br style="box-sizing: border-box;" />2<br style="box-sizing: border-box;" />
  nslookup xxx.com<br style="box-sizing: border-box;" />dig xxx.com @114.114.114.114<br style="box-sizing: border-box;" />
  编写脚本批量调用dig命令,导出结果
  或将域名列表放在在线解析网站中,导出其解析结果
  这个步骤中需要额外关注cdn的情况,绕过cdn寻找其真实ip,可参考这篇文档
  3.c段
  将前面已经获得的ip全部整理好,使用脚本进行排序,懒得写脚本也可以使用在线的功能
  如ip地址排序计算器
  得到排序好的ip,可以先自己判断哪些c段可能属于目标,再进行一些扫描和访问,整理更全面的ip列表。
  五、端口
  使用masscan、nmap等工具对端口信息进行收集
  六、web服务
  使用webfinder等工具扫描已整理ip列表的web常用端口,导出形如:port/以及:port/的web服务列表
  指纹识别
  1.
  2.
  七、漏扫1.主机扫描
  上文整理好的ip列表和域名列表,可以丢入主机扫描相关的扫描器中,如goby、Nessus等
  2.web扫描
  整理好web服务列表,可以丢入awvs等工具进行扫描,同时可以联动xray批量扫描

CTFer成长之路-信息收集-Banner识别

采集交流优采云 发表了文章 • 0 个评论 • 76 次浏览 • 2022-04-22 07:53 • 来自相关话题

  CTFer成长之路-信息收集-Banner识别
  一:Banner识别
  在CTF线上比赛中,一个网站的Banner信息(服务器对外显示的一些基础信息)对解题有着十分重要的作用,选手往往可以通过Banner信息来获得解题思路,如得知网站是用ThinkPHP的Web框架编写时,我们可以尝试ThinkPHP框架的相关历史漏洞。或者得知这个网站是Windows服务器,那么我们在测试上传漏洞时可以根据Windows的特性进行尝试。这里介绍最常用的两种Banner识别方式。
  1.自行搜集指纹库
  Github上有大量成型且公开的CMS指纹库,读者可以自行查找,同时可以借鉴一些成型扫描器对网站进行识别。
  2.使用已有工具
  我们可以利用Wappalyzer工具,同时提供了成型的Python库,用法如下:
  
  
  在data目录下,apps.json文件是其规则库,读者可以根据自己需求自由添加。
  3.总结经验
  在进行服务器的Banner信息探测时,除了通过上述两种常见的识别方式,我们还可以尝试随意输入一些URL,有时可以通过404页面和302跳转页面发现一些信息。例如,开启了debug选项的ThinkPHP网站会在一些错误页面显示ThinkPHP的版本。 查看全部
  CTFer成长之路-信息收集-Banner识别
  一:Banner识别
  在CTF线上比赛中,一个网站的Banner信息(服务器对外显示的一些基础信息)对解题有着十分重要的作用,选手往往可以通过Banner信息来获得解题思路,如得知网站是用ThinkPHP的Web框架编写时,我们可以尝试ThinkPHP框架的相关历史漏洞。或者得知这个网站是Windows服务器,那么我们在测试上传漏洞时可以根据Windows的特性进行尝试。这里介绍最常用的两种Banner识别方式。
  1.自行搜集指纹库
  Github上有大量成型且公开的CMS指纹库,读者可以自行查找,同时可以借鉴一些成型扫描器对网站进行识别。
  2.使用已有工具
  我们可以利用Wappalyzer工具,同时提供了成型的Python库,用法如下:
  
  
  在data目录下,apps.json文件是其规则库,读者可以根据自己需求自由添加。
  3.总结经验
  在进行服务器的Banner信息探测时,除了通过上述两种常见的识别方式,我们还可以尝试随意输入一些URL,有时可以通过404页面和302跳转页面发现一些信息。例如,开启了debug选项的ThinkPHP网站会在一些错误页面显示ThinkPHP的版本。

渗透测试入门篇——信息收集(渗透测试的灵魂)

采集交流优采云 发表了文章 • 0 个评论 • 59 次浏览 • 2022-04-22 07:53 • 来自相关话题

  渗透测试入门篇——信息收集(渗透测试的灵魂)
  通过 google使用googlehack语法查询(百度也可以用这个方式)
  google Hacking是一款绝佳的信息搜集工具,我们可以构造特殊的查询语句进行搜集,构造语句只要你脑洞够大,它的功能就会更大,笔者仅在这里举几个例子
  site: 指定域名
  info:一些基本信息
  filetype:文件类型
  intext:网页中存在的关键字
  4.目录扫描
  在渗透测试中,探测 Web 目录结构和隐藏的敏感文件是一个必不可少的环节,从中可以获取网站的后台管理页面、文件上传页面、甚至可以扫描出网站的源代码。
  常用工具:
  御剑
  dirmap
  Webdirscan
  Cansina
  5.端口扫描
  端口扫描是一个非常重要的环节,端口扫描的目的是了解服务器上运行的服务信息,针对不同的端口进行不同的安全测试。
  常用工具:
  dnsenum
  nmap
  dnsenum
  nslookup
  6.绕过CDN查找真实IP
  什么是CDN?
  CDN的全称是Content Delivery Network,即内容分发网络。CDN是构建在现有网络基础之上的智能虚拟网络,依靠部署在各地的边缘服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。CDN的关键技术主要有内容存储和分发技术。通俗点就是一种缓存技术,提高用户上网体验,但是CDN对渗透测试者的渗透工作就有一定阻碍,所以我们要判断CDN是否存在。
  检测是否存在CDN的方法
  很简单,使用不同地方的 ping 服务,查看对应 IP 地址是否唯一,如果不唯一则极有可能是使用了CDN我们可以利用站长之家这个网站,如下图
  点击ping检测
  
  输入网址执行ping检测
  原理是实现多地ping一个网址,假如ping出来的ip地址都一样那么将不存在CDN
  
  上图是不存在CDN的情况
  下面测试一下google的
  
  ip地址不一样,证明是存在CDN的。
  绕过CDN的方式
  (1)查询子域名:毕竟 CDN 还是不便宜的,所以很多站长可能只会对主站或者流量大的子站点做了 CDN,而很多小站子站点又跟主站在同一台服务器或者同一个C段内,此时就可以通过查询子域名对应的 IP 来辅助查找网站的真实IP。
  (2)查询主域名:以前用CDN的时候有个习惯,只让WWW域名使用CDN,秃域名不适用,为的是在维护网站时更方便,不用等CDN缓存。所以试着把目标网站的www去掉,ping一下看ip是不是变了。
  (3)邮件服务器:一般的邮件系统都在内部,没有经过CDN的解析,通过目标网站用户注册或者RSS订阅功能,查看邮件,寻找邮件头中的邮件服务器域名IP,ping这个邮件服务器的域名,就可以获得目标的真实IP。
  (4)查看域名历史解析记录:也许目标很久之前没有使用CDN,所以可能会存在使用 CDN 前的记录。可以通过网站Netcraft | Internet Research, Cybercrime Disruption and PCI Security Services 来观察域名的IP历史记录。
  (5)国外访问:国内的CDN往往只对国内用户的访问加速,而国外的CDN就不一定了。
  (6)网络空间引擎搜索法:常见的有以前的钟馗之眼,shodan,fofa搜索。以fofa为例,只需输入:title:“网站的title关键字”或者body:“网站的body特征”就可以找出fofa收录的有这些关键字的ip域名,很多时候能获取网站的真实ip。
  (7)网站漏洞:利用网站自身存在的漏洞,很多情况下会泄露服务器的真实IP地址。
  7.指纹识别
  在渗透测试中,对目标服务器进行指纹识别是相当有必要的,因为只有识别出相应的Web容器或者CMS,才能查找与其相关的漏洞,然后才能进行相应的渗透操作。读者可以利用一些在线网站查询CMS指纹识别,如下所示。
  (1)火狐插件:Wappalyzer
  (2)云悉:
  (3)whatweb:
  (4)在线:
  三、信息收集的总结
  收集到这些信息后就可以利用起来,比如:目标的真实IP地址,站点的敏感目录,网站的搭建环境,网站使用的系统,网站防火墙,常用端口信息,目录网站是用什么脚本写的等信息。
  -END-
  信息搜集是关键,做事不要太心急,多学习,多看源码,思路很重要 查看全部
  渗透测试入门篇——信息收集(渗透测试的灵魂)
  通过 google使用googlehack语法查询(百度也可以用这个方式)
  google Hacking是一款绝佳的信息搜集工具,我们可以构造特殊的查询语句进行搜集,构造语句只要你脑洞够大,它的功能就会更大,笔者仅在这里举几个例子
  site: 指定域名
  info:一些基本信息
  filetype:文件类型
  intext:网页中存在的关键字
  4.目录扫描
  在渗透测试中,探测 Web 目录结构和隐藏的敏感文件是一个必不可少的环节,从中可以获取网站的后台管理页面、文件上传页面、甚至可以扫描出网站的源代码。
  常用工具:
  御剑
  dirmap
  Webdirscan
  Cansina
  5.端口扫描
  端口扫描是一个非常重要的环节,端口扫描的目的是了解服务器上运行的服务信息,针对不同的端口进行不同的安全测试。
  常用工具:
  dnsenum
  nmap
  dnsenum
  nslookup
  6.绕过CDN查找真实IP
  什么是CDN?
  CDN的全称是Content Delivery Network,即内容分发网络。CDN是构建在现有网络基础之上的智能虚拟网络,依靠部署在各地的边缘服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。CDN的关键技术主要有内容存储和分发技术。通俗点就是一种缓存技术,提高用户上网体验,但是CDN对渗透测试者的渗透工作就有一定阻碍,所以我们要判断CDN是否存在。
  检测是否存在CDN的方法
  很简单,使用不同地方的 ping 服务,查看对应 IP 地址是否唯一,如果不唯一则极有可能是使用了CDN我们可以利用站长之家这个网站,如下图
  点击ping检测
  
  输入网址执行ping检测
  原理是实现多地ping一个网址,假如ping出来的ip地址都一样那么将不存在CDN
  
  上图是不存在CDN的情况
  下面测试一下google的
  
  ip地址不一样,证明是存在CDN的。
  绕过CDN的方式
  (1)查询子域名:毕竟 CDN 还是不便宜的,所以很多站长可能只会对主站或者流量大的子站点做了 CDN,而很多小站子站点又跟主站在同一台服务器或者同一个C段内,此时就可以通过查询子域名对应的 IP 来辅助查找网站的真实IP。
  (2)查询主域名:以前用CDN的时候有个习惯,只让WWW域名使用CDN,秃域名不适用,为的是在维护网站时更方便,不用等CDN缓存。所以试着把目标网站的www去掉,ping一下看ip是不是变了。
  (3)邮件服务器:一般的邮件系统都在内部,没有经过CDN的解析,通过目标网站用户注册或者RSS订阅功能,查看邮件,寻找邮件头中的邮件服务器域名IP,ping这个邮件服务器的域名,就可以获得目标的真实IP。
  (4)查看域名历史解析记录:也许目标很久之前没有使用CDN,所以可能会存在使用 CDN 前的记录。可以通过网站Netcraft | Internet Research, Cybercrime Disruption and PCI Security Services 来观察域名的IP历史记录。
  (5)国外访问:国内的CDN往往只对国内用户的访问加速,而国外的CDN就不一定了。
  (6)网络空间引擎搜索法:常见的有以前的钟馗之眼,shodan,fofa搜索。以fofa为例,只需输入:title:“网站的title关键字”或者body:“网站的body特征”就可以找出fofa收录的有这些关键字的ip域名,很多时候能获取网站的真实ip。
  (7)网站漏洞:利用网站自身存在的漏洞,很多情况下会泄露服务器的真实IP地址。
  7.指纹识别
  在渗透测试中,对目标服务器进行指纹识别是相当有必要的,因为只有识别出相应的Web容器或者CMS,才能查找与其相关的漏洞,然后才能进行相应的渗透操作。读者可以利用一些在线网站查询CMS指纹识别,如下所示。
  (1)火狐插件:Wappalyzer
  (2)云悉:
  (3)whatweb:
  (4)在线:
  三、信息收集的总结
  收集到这些信息后就可以利用起来,比如:目标的真实IP地址,站点的敏感目录,网站的搭建环境,网站使用的系统,网站防火墙,常用端口信息,目录网站是用什么脚本写的等信息。
  -END-
  信息搜集是关键,做事不要太心急,多学习,多看源码,思路很重要

网站采集工具(网站采集器,是实用简单的网页资源,站长费心)

采集交流优采云 发表了文章 • 0 个评论 • 103 次浏览 • 2022-04-20 18:27 • 来自相关话题

  网站采集工具(网站采集器,是实用简单的网页资源,站长费心)
  网站采集器,是一款实用简单的网络资源下载工具。站长可以监控一个或多个网页的所有资源,并将其下载到自己的数据库中。站长可以自定义下载的资源。内容,包括图片、文字等资源,也可以一次性下载整个网页的所有内容,方便填写自己的网站内容,网站采集器@ &gt; 运行速度非常快,几分钟就可以扫描整个网页,可以大大提高网站采集的工作效率。
  
  站长可以同时使用网站采集器采集多个网站数据。站长还可以随时导入导出任务,任务还可以设置密码,让站长采集任务的详细信息不会泄露,非常实用。网站采集器使用底层HTTP方式采集data,快速稳定,站长可以创建多个任务,同时使用多个线程采集多个网站数据。
  
  网站采集器具有采集暂停/拨号转IP、采集暂停/拨号转IP等多种防采集功能在特殊标记等情况下,让网站避免被目标网站限制采集。网站采集器HIA支持多种内容提取方式,可以根据站长要求对采集到的内容进行处理,无论是HTML还是图片。
  
  站长做网站一定要注意,一定要坚持发布文章。通过网站采集器在前期输出更多的优质内容,对于提高网站的权重也有很大帮助。后期如果是采集别人的文章,必须在网站权重更高后处理,这样搜索引擎就会默认采集@的内容&gt; 为用户带来更好的收益 只有体验本地化的体验,网站的文章才会在很多内容中展现出来。
  
  在网站采集器的网站的排名优化中,长尾词的优化占了相当大的比重。网站的主打词虽然能获得大量流量,但优化难度特别大。相比较而言,长尾关键词竞争较少,上级也很容易,而网站采集器的长尾词带来的与主词相比, 网站 的转化率无法区分。在这种情况下,网站长尾词的工作需要我们站长操心,也值得我们费心。
  
  
  首先,对网站采集器的长尾关键词的挖掘和关键词的扩展,长尾词的特征是从名字上看是长尾,同时字数比较多,但是竞争比较小,关键词怎么扩容呢?这个可以通过网站采集器采集搜索引擎下拉框关键词展开,也可以做一些同理心,想想如果你是用户,你会如何搜索?然后过滤我们扩展的长尾词以选择与我们的 网站 匹配的 关键词。
  
  第二个是网站采集器的网站的内容页。我们都知道网站的首页权重最高,所以我们用最高的权重来优化竞争比较激烈的主题词,那么我们的长尾关键词应该优化在哪里呢?这是我们的内容页面。具体的优化细节,我们需要在相关的标题描述中加入长尾关键词。网站采集器优质优质原创文章对我们优化长尾词很有帮助,所以我们要尽量网站采集器转到采集优质原创文章,同时注意文章中的锚文本不要出现太多,且不影响用户的体验和阅读。 查看全部

  网站采集工具(网站采集器,是实用简单的网页资源,站长费心)
  网站采集器,是一款实用简单的网络资源下载工具。站长可以监控一个或多个网页的所有资源,并将其下载到自己的数据库中。站长可以自定义下载的资源。内容,包括图片、文字等资源,也可以一次性下载整个网页的所有内容,方便填写自己的网站内容,网站采集器@ &gt; 运行速度非常快,几分钟就可以扫描整个网页,可以大大提高网站采集的工作效率。
  
  站长可以同时使用网站采集器采集多个网站数据。站长还可以随时导入导出任务,任务还可以设置密码,让站长采集任务的详细信息不会泄露,非常实用。网站采集器使用底层HTTP方式采集data,快速稳定,站长可以创建多个任务,同时使用多个线程采集多个网站数据。
  
  网站采集器具有采集暂停/拨号转IP、采集暂停/拨号转IP等多种防采集功能在特殊标记等情况下,让网站避免被目标网站限制采集。网站采集器HIA支持多种内容提取方式,可以根据站长要求对采集到的内容进行处理,无论是HTML还是图片。
  
  站长做网站一定要注意,一定要坚持发布文章。通过网站采集器在前期输出更多的优质内容,对于提高网站的权重也有很大帮助。后期如果是采集别人的文章,必须在网站权重更高后处理,这样搜索引擎就会默认采集@的内容&gt; 为用户带来更好的收益 只有体验本地化的体验,网站的文章才会在很多内容中展现出来。
  
  在网站采集器的网站的排名优化中,长尾词的优化占了相当大的比重。网站的主打词虽然能获得大量流量,但优化难度特别大。相比较而言,长尾关键词竞争较少,上级也很容易,而网站采集器的长尾词带来的与主词相比, 网站 的转化率无法区分。在这种情况下,网站长尾词的工作需要我们站长操心,也值得我们费心。
  
  
  首先,对网站采集器的长尾关键词的挖掘和关键词的扩展,长尾词的特征是从名字上看是长尾,同时字数比较多,但是竞争比较小,关键词怎么扩容呢?这个可以通过网站采集器采集搜索引擎下拉框关键词展开,也可以做一些同理心,想想如果你是用户,你会如何搜索?然后过滤我们扩展的长尾词以选择与我们的 网站 匹配的 关键词。
  
  第二个是网站采集器的网站的内容页。我们都知道网站的首页权重最高,所以我们用最高的权重来优化竞争比较激烈的主题词,那么我们的长尾关键词应该优化在哪里呢?这是我们的内容页面。具体的优化细节,我们需要在相关的标题描述中加入长尾关键词。网站采集器优质优质原创文章对我们优化长尾词很有帮助,所以我们要尽量网站采集器转到采集优质原创文章,同时注意文章中的锚文本不要出现太多,且不影响用户的体验和阅读。

网站采集工具(阿希站长平台快速查询百度权重有几个强大的工具)

采集交流优采云 发表了文章 • 0 个评论 • 137 次浏览 • 2022-04-20 11:01 • 来自相关话题

  网站采集工具(阿希站长平台快速查询百度权重有几个强大的工具)
  网站采集工具阿希站长平台快速查询百度权重有几个强大的工具,这是我使用最多的查询工具,它能够让我清楚的了解到您的网站是否被百度收录,收录率是多少,收录率这些都是可以从百度站长工具查询出来的,如果你的网站被收录率低的话,那你是需要及时的把您的网站打造成为一个优质的网站,还需要进行添加外链了,很多时候要做的就是多做外链,网站里面发外链,但是你也需要根据百度后台的更新算法及时进行更新才可以的,并且很多人都不知道。
  优质的外链能够帮助你获得更多的流量,提高网站的排名,你甚至可以直接在百度给你的网站做广告,给你做网站的自然排名就可以的。还能够让你的网站以最快的速度做出排名。高权重站点,在百度搜索引擎搜索的时候会出现12个搜索结果,由于他们的权重都比较高,百度就会把他们做为优质的网站,并且在百度搜索排名靠前的一般都是高权重的,权重高的网站用户体验也会更好一些。
  没有权重的网站排名一般都会比较靠后。尤其是对一些新的网站来说,他们的排名都比较靠后。也是为什么网站需要要有一定的权重,权重越高,用户体验也就越好,这个也是需要给网站说明一下,权重越高,用户体验也就越好。查询网站搜索引擎排名1.linksearch网站搜索引擎排名里面的关键词linksearch,可以在站长平台中找到,最后点击关键词去查询相关的排名页面。
  2.thesearchfornewyork(newyork)同时可以在站长平台、百度站长工具同时查询到相关站点搜索引擎排名。3.abouttheworld这个是一个站长平台的搜索引擎排名查询工具,查询这个站点的排名,可以搜索出来更多的网站排名,如果你想要查询这个网站的排名,可以去搜索这个网站,搜索出来的时候我们可以看到相关网站的排名,一般网站排名靠前的都是一些很优质的网站。
  没有排名的一般是比较一般的网站。如果你想要查询的是一些很知名的网站排名,可以点击这个链接,里面搜索出来的排名结果都是比较靠前的,可以采集到。如果你想知道某个网站被百度收录的多少,你可以在百度搜索一下这个网站,你会发现很多不相关的,百度会把他们都收录,这是你对这个网站不了解的,没有收录你也可以使用阿希站长平台查询到。
  假如你想要查询你的网站是否在百度站长工具收录了,你在搜索这个关键词的时候,只要出现了收录的网站,你也可以进行查询了,因为很多时候你在站长工具没有收录,其实也是没有收录进去,你可以点击这个关键词,查询你的网站是否在百度站长工具收录了,比如说你是做外卖这方面的网站,你在百度站长工具搜索一下,你会发现, 查看全部

  网站采集工具(阿希站长平台快速查询百度权重有几个强大的工具)
  网站采集工具阿希站长平台快速查询百度权重有几个强大的工具,这是我使用最多的查询工具,它能够让我清楚的了解到您的网站是否被百度收录,收录率是多少,收录率这些都是可以从百度站长工具查询出来的,如果你的网站被收录率低的话,那你是需要及时的把您的网站打造成为一个优质的网站,还需要进行添加外链了,很多时候要做的就是多做外链,网站里面发外链,但是你也需要根据百度后台的更新算法及时进行更新才可以的,并且很多人都不知道。
  优质的外链能够帮助你获得更多的流量,提高网站的排名,你甚至可以直接在百度给你的网站做广告,给你做网站的自然排名就可以的。还能够让你的网站以最快的速度做出排名。高权重站点,在百度搜索引擎搜索的时候会出现12个搜索结果,由于他们的权重都比较高,百度就会把他们做为优质的网站,并且在百度搜索排名靠前的一般都是高权重的,权重高的网站用户体验也会更好一些。
  没有权重的网站排名一般都会比较靠后。尤其是对一些新的网站来说,他们的排名都比较靠后。也是为什么网站需要要有一定的权重,权重越高,用户体验也就越好,这个也是需要给网站说明一下,权重越高,用户体验也就越好。查询网站搜索引擎排名1.linksearch网站搜索引擎排名里面的关键词linksearch,可以在站长平台中找到,最后点击关键词去查询相关的排名页面。
  2.thesearchfornewyork(newyork)同时可以在站长平台、百度站长工具同时查询到相关站点搜索引擎排名。3.abouttheworld这个是一个站长平台的搜索引擎排名查询工具,查询这个站点的排名,可以搜索出来更多的网站排名,如果你想要查询这个网站的排名,可以去搜索这个网站,搜索出来的时候我们可以看到相关网站的排名,一般网站排名靠前的都是一些很优质的网站。
  没有排名的一般是比较一般的网站。如果你想要查询的是一些很知名的网站排名,可以点击这个链接,里面搜索出来的排名结果都是比较靠前的,可以采集到。如果你想知道某个网站被百度收录的多少,你可以在百度搜索一下这个网站,你会发现很多不相关的,百度会把他们都收录,这是你对这个网站不了解的,没有收录你也可以使用阿希站长平台查询到。
  假如你想要查询你的网站是否在百度站长工具收录了,你在搜索这个关键词的时候,只要出现了收录的网站,你也可以进行查询了,因为很多时候你在站长工具没有收录,其实也是没有收录进去,你可以点击这个关键词,查询你的网站是否在百度站长工具收录了,比如说你是做外卖这方面的网站,你在百度站长工具搜索一下,你会发现,

网站采集工具(网站数据采集的话的3个爬虫软件可以直接直接使用)

采集交流优采云 发表了文章 • 0 个评论 • 127 次浏览 • 2022-04-18 07:32 • 来自相关话题

  网站采集工具(网站数据采集的话的3个爬虫软件可以直接直接使用)
  网站数据采集,有很多现成的爬虫软件可以直接使用。下面我简单介绍三个,分别是优采云、优采云和优采云,操作简单,易学易懂,感兴趣的朋友可以试试:
  01优采云采集器这是一款非常智能的网络爬虫软件,支持跨平台,完全免费供个人使用。对于大部分网站,只要输入网页地址,软件就会自动识别并提取相关字段信息,包括列表、表格、链接、图片等,无需配置任何采集规则,一个-点击采取,支持自动翻页和数据导出功能,小白学习和掌握非常容易:
  02优采云采集器这是一款非常不错的国产数据采集软件,相比优采云采集器,优采云采集器目前只有支持Windows平台,需要手动设置采集字段和配置规则,比较麻烦,但也比较灵活,内置大量数据采集模板,可以轻松&lt; @采集JD、天猫等热门网站,官方教程很详细,小白也很容易掌握:
  03优采云采集器这是一款非常流行的专业数据采集软件,功能强大,集数据采集、处理、分析、挖掘全流程为一体,相比优采云For @ &gt;采集器和优采云采集器,规则设置更加灵活智能,可以快速抓取网页上零散的数据,并提供数据分析和辅助决策功能。对于网站数据的日常爬取,是一款非常不错的软件:
  当然,除了以上三个爬虫软件之外,还有很多其他的软件也支持网站data采集,比如作数、神策等也很不错,如果你熟悉的话Python、Java等编程语言,也可以自己编程爬取数据。网上也有相关的教程和资料。介绍很详细。如果你有兴趣,你可以搜索一下。希望以上分享的内容对您有所帮助。欢迎评论和留言补充。 查看全部

  网站采集工具(网站数据采集的话的3个爬虫软件可以直接直接使用)
  网站数据采集,有很多现成的爬虫软件可以直接使用。下面我简单介绍三个,分别是优采云、优采云和优采云,操作简单,易学易懂,感兴趣的朋友可以试试:
  01优采云采集器这是一款非常智能的网络爬虫软件,支持跨平台,完全免费供个人使用。对于大部分网站,只要输入网页地址,软件就会自动识别并提取相关字段信息,包括列表、表格、链接、图片等,无需配置任何采集规则,一个-点击采取,支持自动翻页和数据导出功能,小白学习和掌握非常容易:
  02优采云采集器这是一款非常不错的国产数据采集软件,相比优采云采集器,优采云采集器目前只有支持Windows平台,需要手动设置采集字段和配置规则,比较麻烦,但也比较灵活,内置大量数据采集模板,可以轻松&lt; @采集JD、天猫等热门网站,官方教程很详细,小白也很容易掌握:
  03优采云采集器这是一款非常流行的专业数据采集软件,功能强大,集数据采集、处理、分析、挖掘全流程为一体,相比优采云For @ &gt;采集器和优采云采集器,规则设置更加灵活智能,可以快速抓取网页上零散的数据,并提供数据分析和辅助决策功能。对于网站数据的日常爬取,是一款非常不错的软件:
  当然,除了以上三个爬虫软件之外,还有很多其他的软件也支持网站data采集,比如作数、神策等也很不错,如果你熟悉的话Python、Java等编程语言,也可以自己编程爬取数据。网上也有相关的教程和资料。介绍很详细。如果你有兴趣,你可以搜索一下。希望以上分享的内容对您有所帮助。欢迎评论和留言补充。

官方客服QQ群

微信人工客服

QQ人工客服


线