github项目地址:https://github.com/Zhao-sai-sai/Full-Scanner
gitee项目地址:https://gitee.com/wZass/Full-Scanner
工具简介
目前这个工具已经断断续续写了半年多了呜呜
工具还在写中半成品,可能要好几个月,应为我是懒王:kissing_closed_eyes:
做渗透测试有的时候要去用这个工具那个工具去找感觉麻烦我自己就写了一个简单的整合工具,有互联网大佬不要喷我我也是废物

Full-Scanner是一个多功能扫描工具,支持被动/主动信息收集,漏洞扫描,常见的POC和EXP,现在还在添加功能有一部分是我网上找的不错的工具整合到这个工具里面了
用到的工具项目地址
Full-Scanner的子工具
什么是子工具就是我还没有整理到Full-Scanner工具里面的单独工具
下面这几个是已经开发好的工具可以使用的
GUI界面
在写现在已经叫信息收集部分差不多已经写好了

工具下载
1
| git clone https://github.com/Zhao-sai-sai/Full-Scanner.git
|
安装一些依赖
1 2
| cd Full-Scanner pip install -r requirements.txt
|
工具的使用
视频教程B站:https://www.bilibili.com/video/BV1ga411976w
目录结构
现在的目录结构
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76
| Full-Scanner ├── Full-Scanner.py ├── judge.py ├── blasting │ ├── ftp_blasting │ │ ├── ftp.py │ └── ssh_blasting │ └── ssh.py ├── collect │ ├── bing.py │ ├── fofa.py │ ├── fofa_api.py │ ├── req_whois.py │ └── shodan.py │ ├── google.py │ └── SubDnsDetect │ ├── bing.py │ ├── censys.py │ ├── crt.py │ ├── fofa.py │ ├── ip138.py │ └── SubDns.py ├── conf │ ├── config.py ├── dictionary │ ├── back │ ├── BackgroundDetection │ ├── Backupfilescan │ ├── extracted │ ├── ftp │ └── ssh ├── Initiative │ ├── backgroundscan │ │ ├── back.py │ ├── Backupfilescan │ │ ├── ProbeBackup.py │ └── portscan │ ├── port.py ├── lib │ ├── GUI │ ├── Auxiliary.py │ ├── choose.py │ ├── cmdline │ │ ├── cmdline.py │ ├── choose_model │ │ ├── Big_Category.py │ │ └── sub_options │ │ ├── Active_Options.py │ │ ├── blasting_Options.py │ │ ├── Passive_Options.py ├── other │ ├── Contentextraction │ │ ├── extraction.py │ └── portquery │ ├── potrquery.py │ └── tcpudp.py ├── PocAndExpScript │ ├── generate │ │ │ ├── main.py │ ├── pecmdline │ │ ├── pecmdline.py │ ├── storage.py │ └── storage.txt ├── result │ ├── back │ ├── cms │ ├── fofa │ ├── ftp │ ├── ProbeBackup │ ├── searchengine │ ├── shodan │ ├── ssh │ ├── webcrack │ └── whois └── thirdparty
|
工具的使用
B站演示:https://www.bilibili.com/video/BV1ga411976w
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94
| ************************************************************ ___ _ _ ___ | __| _| | |___/ __| __ __ _ _ _ _ _ ___ _ _ | _| || | | |___\__ \/ _/ _` | ' \| ' \/ -_) '_| |_| \_,_|_|_| |___/\__\__,_|_||_|_||_\___|_|
作者:w啥都学Blog地址:www.zssnp.top gitee项目地址:https://gitee.com/wZass/Full-Scanner github项目地址:https://github.com/Zhao-sai-sai/Full-Scanner ************************************************************ usage: python3 Full-Scanner.py [参数] [目标] [其他参数]
本程序是一个多功能工具、支持信息收集、爆破、漏洞扫描、常见的POC和EXP
options: -h, --help show this help message and exit
选择模式: 如果不喜欢输入命令那样、可以用下面的参数 -G 选择使用选择模式 -GUI 图形化模式 [1][*]被动信息收集: 下面是常见的被动信息收集方法会利用各大搜索引擎 [1]被动信息收集:[1]fofa搜索结果提取没有会员用户使用: -fofa [IP/域名] fofa搜索结果提取 -Cookie [Cookie值] Cookie需要验证、如果不想每次都指定可以去config.py文件里面添加 [1]被动信息收集:[1]fofa搜索结果提取会员用户使用: -fofaapi [IP/域名] fofa搜索结果提取 -key [api key] api key值、如果不想每次都指定可以去config.py文件里面添加 -email [email邮箱] 用户email邮箱、如果不想每次都指定可以去config.py文件里面添加 -size [数量] 每页查询数量,默认为100
[1]被动信息收集:[2]shodan信息收集: -shodan [[IP]] shodan信息收集 -api [api值] 用-API参数指定、如果不想每次都指定可以去config.py文件里面添加 [1]被动信息收集:[3]whois查询: -whois [域名] whois查询、咧-whois https://www.baidu.com/
[1]被动信息收集:[4]搜索引擎爬虫: 下面这个会用一下搜索引擎进行搜索提取搜索的URL
-bing [查询语句] 搜索引擎爬虫、咧 -bing 'intitle:后台登陆 "学院"' -bingm [提取的页数] 提取的页数如果不指定默认就是100000、咧 -bingm 5
[1]被动信息收集:[5]搜索引擎爬虫: 下面这个会用一下搜索引擎进行搜索提取搜索的URL
-google [查询语句] 搜索引擎爬虫、咧 -google 'intitle:后台登陆 "学院"' -googlem [提取的页数] 提取的页数如果不指定默认就是100000、咧 -google 5 -googlep [代理地址] 设置代理、咧 -googlep 127.0.0.1:8080
[1]被动信息收集:[6]子域名查询: 这个采用的一些搜索引擎进行域名探测有bing、crtsh、fofa、censys等、不需要输入API这个是采集的查询结果的页面进行提取的 -SubDNS [域名] 子域名查询 [2][*]主动信息收集: 下面是常见的主动信息收集方法 [2]主动信息收集:[1]目标cms识别: -cms [URL] 目标cms识别 [2]主动信息收集:[2]备份文件扫描: -PB [URL] 备份文件扫描 指定扫描的目标、比如 -PB https://baidu.com/ -PBm [文件名] 多个目标保存到一个文件里面进行批量扫描 -PBt [线程数] 指定线程默认是1 -PBd [字典文件] 指定字典默认是自己生成 -PBp [代理地址] 可选代理地址 [2]主动信息收集:[3]后台扫描: -BK [URL] 后台扫描、指定扫描的目标、比如 -BK https://baidu.com/ -BKm [文件名] 多个目标保存到一个文件里面进行批量扫描 -BKd [字典文件] 指定字典默认是用的php.txt -BKt [线程数] 指定线程默认是30 -BKp [代理地址] 可选设置代理 [2]主动信息收集:[4]端口扫描: -PS [IP] 端口扫描、比如 -PS 1.1.1.1 -PSp [指定端口] 指定端口、如果不指定默认常见的端口、指定比如-PSp 1-65535或者22,80,3306 -PSt [线程数] 指定线程、线程太多会出问题 [3][*]爆破: 下面是常见、web爆破、和服务的爆破 [3]爆破:[1]网页登录界面自动化破解: -crack [URL] 登录界面自动化破解、比如-crack https://xxx.com/admin.php
[3]爆破:[2]ftp爆破: -ftp [目标地址] ftp爆破、比如-ftp 1.1.1.1 -ftpp [指定端口号] 指定端口 -ftpt [线程数] 指定线程 -ftpadmin [文件名] 指定用户字典、不指定使用默认 -ftppasswd [文件名] 指定密码字典、不指定使用默认 [3]爆破:[3]SSH破解: -ssh [目标地址] ssh密码怕破解、比如 -ssh 1.1.1.1 -sshp [指定端口号] 指定端口、默认端口号22 -sshu [指定字典] 指定用户名字典、不指定使用默认字典 -sshd [指定字典] 指定密码字典、不指定使用默认字典 -ssht [线程数] 指定线程、线程太多会出问题、默认线程1
[*]其他:小工具:
小工具:端口查询对应的服务: -tcp [端口] tcp查询 -udp [端口] udp查询 小工具:文件的中的域名提取: -mdns [文件] 光提取文件中的域名/IP、比如文件有一个http://1.1.1.1/x/x/x/x、提取出来的就是1.1.1.1 -mhttpdns [文件] 取文件中的和[http/https://]+域名、比如文件有一个http://1.1.1.1/x/x/x/x、提取出来的就是http://1.1.1.1
添加POCEXP或者自己的脚步: -PE [PE] 使用POC/EXP -refresh [REFRESH] 刷新添加POC/EXP -reset [RESET] 重置POC/EXP
|
导入自己的脚本
叫文件方到PocAndExpScript/generate
导入的时候他会按照下面的方式进行导入
比如
1 2 3 4 5 6 7 8
| he_lp={ 'filename':'CVE-2022-26134', 'main':'main', 'name':'CVE-2022-26134Confluence远程命令执行漏洞', 'important':['u'], 'u':'目标', ....... }
|

已知问题
应为我系统是linux系统在linux运行测试的比较多,Windows系统可能会出现很多问题
- Windows会出现读取文件编码问题程序报错、解决方法修改文件的编码格式
- Windows系统会出现多线程无法Ctrl+c结束程序的问题、这个我在找解决方法、linux不会出现这个问题
- 爬虫问题、在信息收集可能会用到外国的网站、使用工具可能会卡在那访问不了、解决方法开代理
- 有的工具不能用了或者报错、问题原因可能就是我调用那个网站的界面改了导致爬虫爬取不到、这个问题我会在测试的时候碰见了我会重新写爬取策略
使用截图
就下面这几个参数可以用bug还多,我太难了

界面我用来两种格式
默认是参数模式
-G:选择模式













警告
请勿用于非法用途!否则自行承担一切后果