标签:
听说不想扯淡的程序猿,不是一只好猿。所以今天来扯扯淡,不贴代码,只讲设计思想。
0x00 起 - 初始设计
我们的目标是设计一枚通用的弱密码扫描器,基本功能是针对不同类型的弱密码,可方便的扩展,比如添加SSH、SVN、phpmyadmin的弱密码扫描功能。我们设定启动方法是命令行,可以通过命令行指定扫描对象,以及扫描哪些弱密码。
既然是要求可扩展,那我们首先来编写一个通用的框架,然后通过添加POC的方法来实现扩展。在这个框架中,我们需要处理的事情包括:
同时为了易用性,框架还要提供一些额外的功能:
我们预期的调用方法应该是这样:
python base.py -p ssh_weak,mysql_weak -t test.txt --run
这样,让我们画个简图:
具体讲解一下:
base.py是扫描器的入口文件
poc_base.py是所有POC的父类,POC通过继承poc_base,来实现常用函数的继承,以及POC引擎。
0x10 承 - 功能抽象
通过上述描述,我们得到了一个简单的框架,通过这个框架提供的功能,我们来试着写一个标准的POC:
from poc_base import PocBase class MyPOC(PocBase): poc_info = { ‘author‘: ‘Friday‘, ‘title‘: ‘svn_weak‘, } def svn_burst(self, url, user, password): pass def save(): # 向数据库或文件中存储结果 pass def verify(self, target): count = 0 for url in target: for user in [‘root‘, ‘work‘]: for passwd in [‘test‘, ‘123456‘]: count += 1 if port_open(22) and svn_burst(): print "Success" save() if count % 10 == 0: print "当前进度:%d" % count
有几个地方可以优化:
这其实是一个问题,数据定时存储(扫描过程中多次存储)和进度提醒功能,如何集成到框架中?本来的逻辑是,调用一次POC,扫描多个URL,然后直接由POC输出结果。如果想实现数据存储和进度提醒,看起来要把更多的控制权交到框架手中。所以,将POC的功能简化到判断某一个URL是否存在弱密码,返回true or false。将POC的调用权限,交到Poc_Base中,多次调用POC,伪代码如下:
class Poc_Base(object): count = 0 progress = 100 # 进度提醒的单位 @ overide def verify(): pass def run(): for url in url_list: count += 1 if count % progress == 0: save() # 数据存储 print "progress %d " % (count) # 进度提醒 if self.verify(): print "success"
经过优化之后,POC的基本模式,更简单了:
from poc_base import PocBase class MyPOC(PocBase): poc_info = { ‘author‘: ‘Friday‘, ‘title‘: ‘svn_weak‘, } def svn_burst(self, url, user, password): pass def verify(self, url): for user in [‘root‘, ‘work‘]: for passwd in [‘test‘, ‘123456‘]: if port_open(22) and svn_burst(): return True
在beebeeto提交过POC的同学,应该惊呼了“除了结果自动存储的模块,这不和beebeeto的框架一样么!”,是的,在一开始写框架的时候,参考了beebeeto-frame,后来独立编写完成/优化完成后,发现殊途同归了 : )
0x20 转 - 性能提升
在实现基本功能之后,我又开始蠢蠢欲动了。作为一个有尊(xing)严(neng)的框架,怎么能满足于一条线的模式!所以,为了效率,我们要在框架层面添加协程和多进程支持,让多核CPU每个都能跑到100%是我们的目标!
但应该怎么添加进程和协程的支持呢?有之前添加数据存储和进度提醒的经验,实现不难想象。难点在于,在添加进程和协程支持的时候,不影响正常的数据存储和进度提醒。伪代码如下:
class Poc_Base(object): gevent_num = 100 # 协程数 process_num = 4 # 进程数 count = [0] * process_num # 每个进程,单独计数 progress = 100 # 进度提醒的单位 @ overide def verify(): pass def verify_count(): count[progress_number] += 1 if count[progress_number] % progress == 0: save() # 数据存储 print "progress %d " % (count[progress_number]) # 进度提醒 if self.verify(): print "success" # 协程调度函数,分配任务到协程 def run_in_gevent(url_list): # url_list 每个进程分配到一定量的url pool = Pool(self.gevent_num) for target in url_list: pool.add(gevent.spawn(self.verify_count, url)) pool.join() # 进程调度函数,分配任务到各个进程 def run(): url_each_process = len(url_list)/process_num for process_number in range(process_num): multiprocessing.Process(target=run_in_gevent, args=(url_list[*:*],)).start() multiprocessing.join()
这样,我们就能在跑POC的时候,用到高端的协程和进程了。
0x30 合
实际运行过程中,协程开了150,进程开了2(8核CPU),可以把两个核的CPU都跑到90+%。
虽然一开始说,不会贴代码,但还是贴了不少伪代码。内容并不深奥,如果你看过beebeeto-frame和beehive的源码,觉得这是简化版的beehive,是高度定制版的beebeeto-frame,我也会觉得很开心: ) ,学习借鉴就是开源软件对于我的意义。
因为涉及公司的一些制度,不方便公开源码,但感兴趣的同学,或者想自己实现一个简单的扫描器的同学,可以参考上文提到的两种开源软件,在github上可以搜到。
标签:
原文地址:http://www.cnblogs.com/kuoaidebb/p/4739566.html