玩蛇网Python多线程爬虫扫描器图文教程和视频教程

优采云 发布时间: 2021-08-01 01:10

  玩蛇网Python多线程爬虫扫描器图文教程和视频教程

  Python 多线程爬虫扫描器

  一、Python 多线程扫描器介绍

  对于小白来说,这里介绍的扫描仪不是条码扫描仪;

  实际上,多线程扫描器是一种python爬虫,可以自动检测安全漏洞、弱密码,扫描远程服务器和网站的IP、文件、端口、目录等。它可以快速准确地找出来。扫描目标中的漏洞为渗透和入侵安全检测奠定了基础。

  

  python多线程爬虫相关知识也是Python黑客在学习渗透技术时必须掌握的。

  比如这个Python Hacker工具,简单来说,有以下功能:

  1. 扫描网站漏洞、木马、危险程序

  2.扫描比较文件差异,监控网站文件

  3.查看网页状态码(200、403、404、500==)

  4.检查网站是否是SEO作弊【为用户和搜索引擎返回不同的结果】

  5.网站stress test iis连接数等虚拟主机空间连接数150

  6.模拟搜索引擎蜘蛛抓取美国User-Agent用户代理

  7.网站程序和版本确认,网站后台扫描

  8.扫描端口等玩蛇网

  二、黑客多线程扫描器的功能

  蛇网Python之家图文教程和视频教程中需要实现的Python扫描器的简单功能包括:

  1.多线程扫描(加速)

  2. 模拟搜索引擎爬虫(User-Agent)

  3.使用代理服务器(大量代理IP切换捕获)

  4.扫描状态码、文件目录等返回

  5. 过滤不需要的文件或目录等

  6.可以手动更改匹配扫描的字典

  7.可以做成图形界面的黑客工具,

  如下图:(本教程为终端版,后续会发布相应的GUI版本)

  

  三、测试多线程爬虫环境搭建

  1.Linux\Mac OS X\Windows 都可以使用

  2. 编辑器 IDE,Python2.X/Python3.x

  3. 搭建一个开源的Web程序或Blog程序进行本地测试(玩蛇教程环境:apache2+php5+wordpress)

  4.抓取匹配列表字典、目录或漏洞文件字典(wordpress、zblog、dedecms等)

  5.确保本地网络和扫描的服务器连接稳定

  6. 注意:建议在本地搭建测试环境,不要扫描网络上的其他网站、服务器,这是非法的!

  免责声明:本视频教程仅供学习和测试Python使用,请勿用于非法方式和行为,

  一切后果与自己玩蛇网和斯巴达无关!

  四、hacking 工具实战代码案例分析

  

# -*- coding:utf-8 -*-

__author__="iplaypython.com"

import os

import urllib2

import threading

import Queue

import time

import random

q = Queue.Queue() # Queue产生一个队列,有3种类型队列 默认用 FIFO队列

threading_num = 5 # 开启5个线程

# 扫描本地IP或域名

domain_name = "http://127.0.0.1"

# 百度蜘蛛UA

Baidu_spider = "Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)"

# 不需要的文件过滤列表

exclude_list = ['.jpg', '.gif', '.css', '.png', '.js', '.scss']

proxy_list = [ # 代理服务器,可能已经失效,换为自己的

{'http': '117.28.254.130:8080'},

{'http': '118.144.177.254:3128'},

{'http': '113.118.211.152:9797'},

]

# 打开字典文件,开始过滤不需要的文件路径

with open("/home/leo/app_txt/wordpress.txt" , "r") as lines:

for line in lines:

line = line.rstrip()

if os.path.splitext(line)[1] not in exclude_list:

q.put(line) #将line传入到队列 q 中

# 扫描器方法

def crawler():

while not q.empty(): # 循环

path = q.get() 将line从队列 q 中取出来

url = "%s%s" % (domain_name, path) # 组合url地址,用于下一步提交

random_proxy = random.choice(proxy_list) # 随机使用一个代理服务器

proxy_support = urllib2.ProxyHandler(random_proxy)

opener = urllib2.build_opener(proxy_support)

urllib2.install_opener(opener)

headers = {}

headers['User-Agent'] = Baidu_spider # 蜘蛛的头部信息

# 玩蛇网 www.iplaypy.com

request = urllib2.Request(url, headers=headers)

try:

response = urllib2.urlopen(request)

content = response.read()

if len(content): # 内容不为空的情况下返回状态码、路径

print "Status [%s] - path: %s" % (response.code, path)

response.close()

time.sleep(1) # 休息一会儿,防止速度过快连接数过大被封掉IP

except urllib2.HTTPError as e:

# print e.code, path

pass # 异常处理,先暂时pass掉

if __name__ == '__main__':

# 创建多线程并指明函数的入口为crawler,以后还可以传参进去

for i in range(threading_num):

t = threading.Thread(target=crawler)

t.start()

  #在上面的代码中,我们一共导入了6个模块,是接下来需要用到的功能模块,

  #os的作用是过滤我们不需要扫描的后缀文件。

  #urllib2负责爬取,threading是我们的Python多线程模块,

  #这次我们还需要用到Queue,一个线程安全的队列模块,

  #另外两个比较简单,一个是random模块random,一个是time模块time

  五、下载本文相关资源

  

  黑客工具_Python多线程爬虫爬取扫描器Python全部源码下载:

  本地高速下载:crawler-scanner.rar

  源码大小:1.6KB

  Python多线程爬虫爬虫扫描器

  这是Pyhton多线程扫描仪视频课程的内容页面,稍后更新,

  提供课程相关资源和Python源代码下载,详细使用图文教程。

  黑客工具,黑客访客扫描器,端口扫描,免费网页网站Scanner

  百度网盘下载地址:

  由于视频教程时长约 50 分钟,所以视频分两部分发送。

  Python 多线程爬虫爬取扫描器-最后一节

  Python多线程爬虫爬取扫描器-下一节

  有什么问题或者建议可以在评论区留言讨论。

  【视频播放密码】:QQqun20419428

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线