博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python url采集
阅读量:6329 次
发布时间:2019-06-22

本文共 2303 字,大约阅读时间需要 7 分钟。

python利用百度做url采集

python url采集
pip install tableprint
paramiko==2.0.8
语法:python url_collection.py -h输出帮助信息
python url_collection.py 要采集的信息 -p 页数 -t 进程数 -o 保存的文件名以及格式
新建文件touch url_collection.py
写入代码正式部分

#coding: utf-8

import requests
from bs4 import BeautifulSoup as bs
import re
from Queue import Queue
import threading
from argparse import ArgumentParser
logo="""
u u l | ccccc ooooo l l eeeeee cccccc ttttttt
u u r rr l | c o o l l e c t
u u r r r l | c o o l l eeeeee c t
u u r l | c o o l l e c t
u u u r l | c o o l l e c t
uuuuuuuu u r lllll | ccccc ooooo llllll lllll eeeeee cccccc t
By : Snow wolf
"""
print(logo)
arg = ArgumentParser(description='baidu_url_collect py-script by snowwolf')
arg.add_argument('keyword',help='keyword like inurl:.?id= for searching sqli site')
arg.add_argument('-p','--page', help='page count', dest='pagecount', type=int)
arg.add_argument('-t','--thread', help='the thread_count', dest='thread_count', type=int, default=10)
arg.add_argument('-o','--outfile', help='the file save result', dest='outfile', default='result.txt')
result = arg.parse_args()
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:50.0) Gecko/20100101 Firefox/50.0'}

class Bd_url(threading.Thread):

def init(self, que):
threading.Thread.init(self)
self._que = que

def run(self):    while not self._que.empty():        URL = self._que.get()        try:            self.bd_url_collect(URL)        except Exception,e:            print e            passdef bd_url_collect(self, url):        r = requests.get(url, headers=headers, timeout=3)        soup = bs(r.content, 'lxml', from_encoding='utf-8')        bqs = soup.find_all(name='a', attrs={'data-click':re.compile(r'.'), 'class':None})        for bq in bqs:            r = requests.get(bq['href'], headers=headers, timeout=3)            if r.status_code == 200:                print r.url                with open(result.outfile, 'a') as f:                    f.write(r.url + '\n')

def main():

thread = []
thread_count = result.thread_count
que = Queue()
for i in range(0,(result.pagecount-1)*10,10):
que.put('=' + result.keyword + '&pn=' + str(i))

for i in range(thread_count):    thread.append(Bd_url(que))for i in thread:    i.start()for i in thread:    i.join()

if name == 'main':

main()

代码结束

转载于:https://blog.51cto.com/superwolf/2339616

你可能感兴趣的文章
谈团队协作的问题
查看>>
程序员猿救计划之 1024 梦境奇遇
查看>>
我的友情链接
查看>>
Activity四种启动模式2
查看>>
我的友情链接
查看>>
ArcGIS地图投影转换
查看>>
Python re
查看>>
Linux基础命令---gzip
查看>>
忠告15:山姆。摩尔。沃尔顿:追逐着,并坚持不懈
查看>>
openstack-mikata之网络服务(controller安装部署)
查看>>
我的友情链接
查看>>
通过HAproxy实现动静分离
查看>>
Codeforces Round #256 (Div. 2) D. Multiplication Table 【二分】
查看>>
ARM汇编指令格式
查看>>
HDU-2044-一只小蜜蜂
查看>>
HDU-1394-Minimum Inversion Number
查看>>
jsonView谷歌插件
查看>>
df -h 卡住
查看>>
K-means算法(理论+opencv实现)
查看>>
第七天1
查看>>