Sh4dow's Blog

活了二十几年,从来没有人给过我一次意外感动或惊喜,也没有人在我生日的时候给过我特别的礼物,生病的时候得到的只是一些不在身边的语言安慰,也不见谁真正的照顾过自己,甚至有的时候自己蒙头睡一觉就好了,也有人喜欢过我,但是从没见谁坚持过。

python 批量请求url指定页面

最近需要批量请求指定连接,根据返回值的长度来判断。burpsuite 不支付换host ,用PKAV的那个工具,太卡,不适用大数据处理。所以有了下面Python脚本。批量请求。



code:



import requests

from multiprocessing.dummy import Pool as ThreadPool


def payload_check(url):

payload = {'code': '123'}

try:

#修改超时

r = requests.post("http://"+url+"/sh4dow.php", params=payload, timeout=10)

print "\n",url,"-------",len(r.text)

except Exception as e:

print e

#print e   可以改成pass

if __name__ == '__main__':

urls = []

f = open("url.txt", "r")

lines = f.readlines()

for line in lines:

url = line.strip()

urls.append(url)

#修改线程

pool = ThreadPool(5)

results = pool.map(payload_check, urls)

url.txt 直接放入需要扫描的url。 我这里是代入了post内容。可以根据自己的要求。

效果比pkav的那个工具好蛮多。保存与导出都非常方便了。

评论

© Sh4dow's Blog | Powered by LOFTER