萝卜网,异世血佛,微信头条
把proxy pool项目跑起来,但也不知道这些ip怎么用,爬虫的时候是否用代理去爬取,下面通过一个例子来看看。
代码如下:
import requests proxy_pool_url = 'http://127.0.0.1:5010/get/' def get_proxy(): try: response = requests.get(proxy_pool_url) if response.status_code == 200: return response.text except connectionerror: return get_proxy() def get_html(): try: r = requests.get('http://httpbin.org/get',proxies={'http':'http://%s' % get_proxy()}) if r.status_code == 200: print(r.text) except: pass for i in range(100): get_html()
先写个函数来请求ip代理池,获取到代理ip就赋予到proxies参数上,这时再写个for循环来证明是不是每次请求是不同ip, 这个地址会返回请求信息 也就能看到是否用上代理 现在直接运行起来代码就ok了!
上图说明已经成功用上代理ip!!!
如对本文有疑问,请在下面进行留言讨论,广大热心网友会与你互动!! 点击进行留言回复
Python爬虫:Request Payload和Form Data的简单区别说明
浅谈Python中threading join和setDaemon用法及区别说明
Python3-异步进程回调函数(callback())介绍
python继承threading.Thread实现有返回值的子类实例
Python中使用threading.Event协调线程的运行详解
网友评论