实战场景
使用safe3wvs扫描,扫描完成后会在当前目录下生成一个日志文件spider.log,截图如下。
现要求将存在sql注入的url地址整理到spider_new.log文件中,下面分享一个自己用python编写的脚本:
#coding:utf-8 with open(\'spider.log\',\'r\') as fr: for line in fr.readlines(): if \'sql\' in line: with open(\'spider_new.log\',\'a\') as fw: fw.write(line.split(\' \')[0]+\'\n\')
执行结果: