Python其他

在selenium,webdriver之谷歌游览器添加随机代理IP地址

在我们做爬虫的时候,经常需要使用自动化测试框架selenium,下面我们就讲解一下怎么在selenium框架中加入随机代理IP。

以scrapy结合selenium为例:

首先,在scrapy settings.py加入代理IP地址列表,如下代码:

PROXIES = [
    'http://username1:password1@ip1:端口1',
    'http://username2:password1@ip2:端口2',
    'http://username3:password1@ip3:端口3',
    'http://username4:password1@ip4:端口4',
    'http://username5:password1@ip5:端口5',
    'http://username6:password1@ip6:端口6',
 ]

然后再selenium代码里面导入settings里面的PROXIES,使用代码:from kyqb.settings import PROXIES,其中kyqb是你的scrapy项目名字,下面贴出一部分代码:

chrome_options = webdriver.ChromeOptions()
chrome_options.add_argument('--headless') # 不用打开图形界面
chrome_options.add_argument('--no-sandbox') # 让Chrome在root权限下跑
chrome_options.add_argument('--disable-gpu')
chrome_options.add_argument('--disable-dev-shm-usage')
PROXY = random.choice(PROXIES)
print('截图IP是:{}'.format(PROXY))
time.sleep(10)
chrome_options.add_argument('--proxy-server={0}'.format(PROXY))
chrome_options.add_argument(
    'user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.85 Safari/537.36"')

brower = webdriver.Chrome(chrome_options=chrome_options)  # 创建一个chrome的webdrive

这样就完成了

最后修改:2021-07-18 03:57:58