選項 | 作用 | 可選值 | 示例 |
---|---|---|---|
--types | 指定代理的類型 | HTTP,HTTPS,SOCKS4,SOCKS5,CONNECT:80,CONNECT:25 | --types HTTP HTTPS |
--lvl | 指定代理的匿名級別 | Transparent,Anonymous,High | --lvl High |
--strict,-s | 嚴(yán)格保證代理的類型與匿名級別等于指定的值 | 只要加上就表示啟用嚴(yán)格模式 | --strict |
--countries COUNTRIES,-c COUNTRIES | 指定代理IP的所屬國家 | US,CN... | -c CN |
--limit LIMIT, -l LIMIT | 指定獲取的條數(shù) | 正整數(shù)即可 | -l 5 |
--outfile OUTFILE, -o OUTFILE | 將找到的代理保存到文件中 | 文件路徑 | --outfile ./proxies.txt |
--format FORMAT, -f FORMAT | 指定輸出的格式,默認(rèn)值為default | default,json | -f json |
--post | 用post請求檢查IP的可用性,默認(rèn)是用get方式 | 只要加上就表示啟用post請求檢查 | --post |
--show-stats | 是否打印詳細(xì)統(tǒng)計信息 | 只要加上就表示啟用打印統(tǒng)計信息 | --show-stats |
比如查找10條HTTP代理
proxybroker find --types HTTP -l 10
你可以將選項的示例值加上,自己嘗試一下
grab子命令有點像find的簡易版,它只進(jìn)行查找,并不檢查抓來IP的可用性
下列是grab子命令的所有選項:
選項 | 作用 | 可選值 | 示例 |
---|---|---|---|
--countries COUNTRIES,-c COUNTRIES | 指定代理IP的所屬國家 | US,CN... | -c CN |
--limit LIMIT, -l LIMIT | 指定獲取的條數(shù) | 正整數(shù)即可 | -l 5 |
--outfile OUTFILE, -o OUTFILE | 將找到的代理保存到文件中 | 文件路徑 | --outfile ./proxies.txt |
--format FORMAT, -f FORMAT | 指定輸出的格式,默認(rèn)值為default | default,json | -f json |
--show-stats | 是否打印詳細(xì)統(tǒng)計信息 | 只要加上就表示啟用打印統(tǒng)計信息 | --show-stats |
可以看到它有的選項,find子命令都有,所以它是find的閹割版
比如查找5條來自中國的代理,并將它保存至文件中
proxybroker grab -c CN -o ./proxies.txt -l 5
serve子命令用于搭建一個本地代理服務(wù)器,它可以分發(fā)你的請求至不同的IP代理中
下列是serve子命令的常用選項:
選項 | 作用 | 可選值 | 示例 |
---|---|---|---|
--host HOST | 指定服務(wù)器的地址,默認(rèn)是127.0.0.1 | 你本機(jī)的IP | --host localhost |
--port PORT | 指定服務(wù)器的端口,默認(rèn)是8888 | 你本機(jī)可用的端口 | --port 5000 |
--max-tries SRV_MAX_TRIES | 設(shè)置處理請求的最大重試次數(shù) | 正整數(shù) | --max-tries 3 |
--min-req-proxy MIN_REQ_PROXY | 設(shè)置每個IP處理請求的最小次數(shù) | 正整數(shù) | --min-req-proxy 3 |
--http-allowed-codes HTTP_ALLOWED_CODES | 設(shè)置允許代理返回的響應(yīng)碼 | 響應(yīng)的狀態(tài)碼 | --http-allowed-codes 302 |
--max-error-rate MAX_ERROR_RATE | 設(shè)置最大允許請求的異常率,例如0.5是50% | 0~1 | --max-error-rate 0.3 |
--max-resp-time SECONDS | 設(shè)置響應(yīng)的最大允許秒數(shù),默認(rèn)是8秒 | 秒數(shù) | --max-resp-time 20 |
--prefer-connect | 如果可以的話,是否使用CONNECT方法 | 只要加上就表示使用 | --prefer-connect |
--backlog BACKLOG | 設(shè)置連接隊列的最大值 | 正整數(shù)即可 | --backlog 10 |
- | - | - | - |
--types | 指定代理的類型 | HTTP,HTTPS,SOCKS4,SOCKS5,CONNECT:80,CONNECT:25 | --types HTTP HTTPS |
--lvl | 指定代理的匿名級別 | Transparent,Anonymous,High | --lvl High |
--strict,-s | 嚴(yán)格保證代理的類型與匿名級別等于指定的值 | 只要加上就表示啟用嚴(yán)格模式 | --strict |
--countries COUNTRIES,-c COUNTRIES | 指定代理IP的所屬國家 | US,CN... | -c CN |
--limit LIMIT, -l LIMIT | 指定代理池的工作IP條數(shù) | 正整數(shù)即可 | -l 5 |
serve子命令搭建代理服務(wù)器,相當(dāng)于把我們本機(jī)變成中間商再中間商
比如在地址為localhost,端口為5000,搭起高匿名代理服務(wù)器
proxybroker serve --host localhost --port 5000 --types HTTP --lvl High
然后先通過curl命令不使用代理訪問一下http://httpbin.org/get這個地址,查看一下該網(wǎng)站顯示我們的IP是多少
curl http://httpbin.org/get
再使用curl命令通過我們剛搭起的代理服務(wù)器訪問一下,看看網(wǎng)站顯示的IP是否有變化
curl --proxy http://localhost:5000 http://httpbin.org/get
你可以通過proxybroker serve子命令
搭起代理服務(wù)器,然后在發(fā)起請求時使用該代理,這種方法適用于幾乎所有的編程語言
先serve搭起代理服務(wù)器
proxybroker serve --host localhost --port 5000 --types HTTP --lvl High
然后通過requests庫設(shè)置代理
import requests proxies = { "http": "http://localhost:5000", "https": "http://localhost:5000" } res = requests.get('http://httpbin.org/get', proxies=proxies) print(res.json())
效果如下
還是先serve搭起代理服務(wù)器,代碼還是和上面一樣
在終端中,通過scrapy startproject
新建一個爬蟲項目,然后進(jìn)入該項目目錄里
scrapy startproject proxy_demo cd proxy_demo
通過scrapy genspider
新建一個爬蟲,名為proxy_spider_demo
,域名為httpbin.org
scrapy genspider proxy_spider_demo httpbin.org
然后將下列代碼粘貼至剛剛新建的爬蟲中
import json import scrapy # from scrapy.downloadermiddlewares.httpproxy import HttpProxyMiddleware class ProxySpiderDemoSpider(scrapy.Spider): name = 'proxy_spider_demo' allowed_domains = ['httpbin.org'] # start_urls = ['http://httpbin.org/'] def start_requests(self): meta = dict(proxy='http://localhost:5000') # 請求三次該網(wǎng)址,查看IP是否不同 for _ in range(3): # 得加上dont_filter=True,否則第2、3個請求將被dupefilter過濾 # 請求可以通過meta攜帶代理服務(wù)器地址,與HttpProxyMiddleware下載器中間件配合達(dá)到代理請求的目的 yield scrapy.Request('http://httpbin.org/get', dont_filter=True, meta=meta, callback=self.parse) def parse(self, response): json_body = json.loads(response.text) print('當(dāng)前請求的IP為:', json_body['origin'])
在項目根目錄處進(jìn)入終端,通過scrapy crawl
命令運行爬蟲,這里加上了--nolog
選項是為了專注于print的輸出
scrapy crawl --nolog proxy_spider_demo
效果如下
如果不希望通過serve子命令,直接在python代碼中使用代理IP,可以通過asyncio來異步獲取代理IP
直接上代碼
import asyncio from proxybroker import Broker async def view_proxy(proxies_queue): while True: proxy = await proxies_queue.get() if proxy is None: print('done...') break print(proxy) # 異步隊列 proxies_queue = asyncio.Queue() broker = Broker(proxies_queue) tasks = asyncio.gather( # 使用grab子命令獲取3條IP broker.grab(limit=3), view_proxy(proxies_queue)) loop = asyncio.get_event_loop() _ = loop.run_until_complete(tasks)
獲取到代理IP后,你可以通過aiohttp
異步HTTP庫或requests
庫來使用它們
你可以利用ProxyBroker庫來白嫖免費的IP代理,但是白嫖來的始終是有缺點的,不然也不會有人專門去賣IP代理了
白嫖來的IP有穩(wěn)定性差、速度慢的缺點,所以土豪可以忽視本文...
到此這篇關(guān)于python利用proxybroker構(gòu)建爬蟲免費IP代理池的實現(xiàn)的文章就介紹到這了,更多相關(guān)python IP代理池內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
標(biāo)簽:合肥 平頂山 大慶 海南 烏蘭察布 郴州 烏蘭察布 哈爾濱
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python利用proxybroker構(gòu)建爬蟲免費IP代理池的實現(xiàn)》,本文關(guān)鍵詞 python,利用,proxybroker,構(gòu)建,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。