主頁 > 知識庫 > python利用proxybroker構(gòu)建爬蟲免費IP代理池的實現(xiàn)

python利用proxybroker構(gòu)建爬蟲免費IP代理池的實現(xiàn)

熱門標(biāo)簽:高德地圖標(biāo)注字母 鎮(zhèn)江人工外呼系統(tǒng)供應(yīng)商 申請辦個400電話號碼 柳州正規(guī)電銷機(jī)器人收費 騰訊地圖標(biāo)注有什么版本 400電話辦理費用收費 千呼ai電話機(jī)器人免費 外呼系統(tǒng)前面有錄音播放嗎 深圳網(wǎng)絡(luò)外呼系統(tǒng)代理商

前言

寫爬蟲的小伙伴可能遇到過這種情況:

正當(dāng)悠閑地喝著咖啡,滿意地看著屏幕上的那一行行如流水般被爬下來的數(shù)據(jù)時,突然一個Error彈出,提示抓不到數(shù)據(jù)了...

然后你反復(fù)檢查,確信自己代碼莫得問題之后,發(fā)現(xiàn)居然連瀏覽器也無法正常訪問網(wǎng)頁了...

難道是網(wǎng)站被我爬癱瘓了?

然后你用手機(jī)瀏覽所爬網(wǎng)站,驚奇地發(fā)現(xiàn)居然能訪問!

才原來我的IP被網(wǎng)站給封了,拒絕了我的訪問

這時只能用IP代理來應(yīng)對禁IP反爬策略了,但是網(wǎng)上高速穩(wěn)定的代理IP大多都收費,看了看皺皺的錢包后,一個大膽的想法冒出

我要白嫖!

啥是IP代理?假如你現(xiàn)在17歲未成年,理想一點的情況會是,你去商店買煙,老板告訴你未成年不能買煙,并拒絕了你的購買,這叫被服務(wù)器拒絕訪問;

但是你不服氣啊,于是你找來你20歲的哥哥,叫他去商店老板那幫你買包煙,然后再給你,這就叫IP代理。

ProxyBroker簡介

ProxyBroker是一個開源軟件,它從各種不同的IP代理網(wǎng)站中抓來公開的代理IP,并實時地檢查代理IP的可用性,以供使用。

所以可以說ProxyBroker是一個集成了爬蟲技術(shù)的開源軟件。

ProxyBroker安裝

你可以通過pip來安裝ProxyBroker

pip install proxybroker

也可以直接從Github下載最新版本的ProxyBroker

pip install -U git+https://github.com/constverum/ProxyBroker.git

在終端使用ProxyBroker

安裝成功后,你可以在終端中使用命令proxybroker

proxybroker主要有三個子命令

find子命令

find子命令用于查找并檢查公開的代理IP,換言之它會列出所有經(jīng)測試可用的代理IP

下列是find子命令的常用選項:

選項 作用 可選值 示例
--types 指定代理的類型 HTTP,HTTPS,SOCKS4,SOCKS5,CONNECT:80,CONNECT:25 --types HTTP HTTPS
--lvl 指定代理的匿名級別 Transparent,Anonymous,High --lvl High
--strict,-s 嚴(yán)格保證代理的類型與匿名級別等于指定的值 只要加上就表示啟用嚴(yán)格模式 --strict
--countries COUNTRIES,-c COUNTRIES 指定代理IP的所屬國家 US,CN... -c CN
--limit LIMIT, -l LIMIT 指定獲取的條數(shù) 正整數(shù)即可 -l 5
--outfile OUTFILE, -o OUTFILE 將找到的代理保存到文件中 文件路徑 --outfile ./proxies.txt
--format FORMAT, -f FORMAT 指定輸出的格式,默認(rèn)值為default default,json -f json
--post 用post請求檢查IP的可用性,默認(rèn)是用get方式 只要加上就表示啟用post請求檢查 --post
--show-stats 是否打印詳細(xì)統(tǒng)計信息 只要加上就表示啟用打印統(tǒng)計信息 --show-stats

比如查找10條HTTP代理

proxybroker find --types HTTP -l 10

你可以將選項的示例值加上,自己嘗試一下

grab子命令

grab子命令有點像find的簡易版,它只進(jìn)行查找,并不檢查抓來IP的可用性

下列是grab子命令的所有選項:

選項 作用 可選值 示例
--countries COUNTRIES,-c COUNTRIES 指定代理IP的所屬國家 US,CN... -c CN
--limit LIMIT, -l LIMIT 指定獲取的條數(shù) 正整數(shù)即可 -l 5
--outfile OUTFILE, -o OUTFILE 將找到的代理保存到文件中 文件路徑 --outfile ./proxies.txt
--format FORMAT, -f FORMAT 指定輸出的格式,默認(rèn)值為default default,json -f json
--show-stats 是否打印詳細(xì)統(tǒng)計信息 只要加上就表示啟用打印統(tǒng)計信息 --show-stats

可以看到它有的選項,find子命令都有,所以它是find的閹割版

比如查找5條來自中國的代理,并將它保存至文件中

proxybroker grab -c CN -o ./proxies.txt -l 5

serve子命令

serve子命令用于搭建一個本地代理服務(wù)器,它可以分發(fā)你的請求至不同的IP代理中

下列是serve子命令的常用選項:

選項 作用 可選值 示例
--host HOST 指定服務(wù)器的地址,默認(rèn)是127.0.0.1 你本機(jī)的IP --host localhost
--port PORT 指定服務(wù)器的端口,默認(rèn)是8888 你本機(jī)可用的端口 --port 5000
--max-tries SRV_MAX_TRIES 設(shè)置處理請求的最大重試次數(shù) 正整數(shù) --max-tries 3
--min-req-proxy MIN_REQ_PROXY 設(shè)置每個IP處理請求的最小次數(shù) 正整數(shù) --min-req-proxy 3
--http-allowed-codes HTTP_ALLOWED_CODES 設(shè)置允許代理返回的響應(yīng)碼 響應(yīng)的狀態(tài)碼 --http-allowed-codes 302
--max-error-rate MAX_ERROR_RATE 設(shè)置最大允許請求的異常率,例如0.5是50% 0~1 --max-error-rate 0.3
--max-resp-time SECONDS 設(shè)置響應(yīng)的最大允許秒數(shù),默認(rèn)是8秒 秒數(shù) --max-resp-time 20
--prefer-connect 如果可以的話,是否使用CONNECT方法 只要加上就表示使用 --prefer-connect
--backlog BACKLOG 設(shè)置連接隊列的最大值 正整數(shù)即可 --backlog 10
- - - -
--types 指定代理的類型 HTTP,HTTPS,SOCKS4,SOCKS5,CONNECT:80,CONNECT:25 --types HTTP HTTPS
--lvl 指定代理的匿名級別 Transparent,Anonymous,High --lvl High
--strict,-s 嚴(yán)格保證代理的類型與匿名級別等于指定的值 只要加上就表示啟用嚴(yán)格模式 --strict
--countries COUNTRIES,-c COUNTRIES 指定代理IP的所屬國家 US,CN... -c CN
--limit LIMIT, -l LIMIT 指定代理池的工作IP條數(shù) 正整數(shù)即可 -l 5

serve子命令搭建代理服務(wù)器,相當(dāng)于把我們本機(jī)變成中間商再中間商

比如在地址為localhost,端口為5000,搭起高匿名代理服務(wù)器

proxybroker serve --host localhost --port 5000 --types HTTP --lvl High

然后先通過curl命令不使用代理訪問一下http://httpbin.org/get這個地址,查看一下該網(wǎng)站顯示我們的IP是多少

curl http://httpbin.org/get

再使用curl命令通過我們剛搭起的代理服務(wù)器訪問一下,看看網(wǎng)站顯示的IP是否有變化

curl --proxy http://localhost:5000 http://httpbin.org/get

在代碼中使用ProxyBroker

你可以通過proxybroker serve子命令搭起代理服務(wù)器,然后在發(fā)起請求時使用該代理,這種方法適用于幾乎所有的編程語言

requests庫使用代理

先serve搭起代理服務(wù)器

proxybroker serve --host localhost --port 5000 --types HTTP --lvl High

然后通過requests庫設(shè)置代理

import requests

proxies = {
  "http": "http://localhost:5000",
  "https": "http://localhost:5000"
}

res = requests.get('http://httpbin.org/get', proxies=proxies)

print(res.json())

效果如下

scrapy庫使用代理

還是先serve搭起代理服務(wù)器,代碼還是和上面一樣

在終端中,通過scrapy startproject新建一個爬蟲項目,然后進(jìn)入該項目目錄里

scrapy startproject proxy_demo
cd proxy_demo

通過scrapy genspider新建一個爬蟲,名為proxy_spider_demo,域名為httpbin.org

scrapy genspider proxy_spider_demo httpbin.org

然后將下列代碼粘貼至剛剛新建的爬蟲中

import json
import scrapy
# from scrapy.downloadermiddlewares.httpproxy import HttpProxyMiddleware


class ProxySpiderDemoSpider(scrapy.Spider):
  name = 'proxy_spider_demo'
  allowed_domains = ['httpbin.org']
  # start_urls = ['http://httpbin.org/']

  def start_requests(self):
    meta = dict(proxy='http://localhost:5000')
    # 請求三次該網(wǎng)址,查看IP是否不同
    for _ in range(3):
      # 得加上dont_filter=True,否則第2、3個請求將被dupefilter過濾
      # 請求可以通過meta攜帶代理服務(wù)器地址,與HttpProxyMiddleware下載器中間件配合達(dá)到代理請求的目的
      yield scrapy.Request('http://httpbin.org/get', dont_filter=True, meta=meta, callback=self.parse)

  def parse(self, response):
    json_body = json.loads(response.text)
    print('當(dāng)前請求的IP為:', json_body['origin'])

在項目根目錄處進(jìn)入終端,通過scrapy crawl命令運行爬蟲,這里加上了--nolog選項是為了專注于print的輸出

scrapy crawl --nolog proxy_spider_demo

效果如下

python異步獲取代理IP

如果不希望通過serve子命令,直接在python代碼中使用代理IP,可以通過asyncio來異步獲取代理IP

直接上代碼

import asyncio
from proxybroker import Broker

async def view_proxy(proxies_queue):
  while True:
    proxy = await proxies_queue.get()
    
    if proxy is None:
      print('done...')
      break
      
    print(proxy)

# 異步隊列
proxies_queue = asyncio.Queue()

broker = Broker(proxies_queue)

tasks = asyncio.gather(
  # 使用grab子命令獲取3條IP
  broker.grab(limit=3),
  view_proxy(proxies_queue))

loop = asyncio.get_event_loop()
_ = loop.run_until_complete(tasks)

獲取到代理IP后,你可以通過aiohttp異步HTTP庫或requests庫來使用它們

總結(jié)

你可以利用ProxyBroker庫來白嫖免費的IP代理,但是白嫖來的始終是有缺點的,不然也不會有人專門去賣IP代理了

白嫖來的IP有穩(wěn)定性差、速度慢的缺點,所以土豪可以忽視本文...

到此這篇關(guān)于python利用proxybroker構(gòu)建爬蟲免費IP代理池的實現(xiàn)的文章就介紹到這了,更多相關(guān)python IP代理池內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲設(shè)置ip代理過程解析
  • python如何基于redis實現(xiàn)ip代理池
  • python3 Scrapy爬蟲框架ip代理配置的方法
  • Python爬蟲動態(tài)ip代理防止被封的方法
  • python實現(xiàn)ip代理池功能示例
  • python單例模式獲取IP代理的方法詳解
  • python3 requests中使用ip代理池隨機(jī)生成ip的實例
  • python爬蟲實戰(zhàn)之制作屬于自己的一個IP代理模塊

標(biāo)簽:合肥 平頂山 大慶 海南 烏蘭察布 郴州 烏蘭察布 哈爾濱

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python利用proxybroker構(gòu)建爬蟲免費IP代理池的實現(xiàn)》,本文關(guān)鍵詞  python,利用,proxybroker,構(gòu)建,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python利用proxybroker構(gòu)建爬蟲免費IP代理池的實現(xiàn)》相關(guān)的同類信息!
  • 本頁收集關(guān)于python利用proxybroker構(gòu)建爬蟲免費IP代理池的實現(xiàn)的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章