解决爬虫错误:urllib.error.URLError:

当用多线程爬取网站出现urlopen error [errno 10060]的错误,也就是连接失败。原因是多个线程爬去某个网站的数据,每次连接完需要sleep(1)一会,不然该网站服务端的防火墙会ban掉你的connect。睡眠等待机制会减少urlopen error [errno 10060]出现的概率,但访问次数多了还是会出现
开始的解决思路是每次连接的时候换用不同的useragent,结果仍会出现urlopen error [errno 10060]的异常。
后看了网上说法是连接时网络不稳定造成的,于是写了个多次尝试连接的函数

来源:逸尘?

声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2017年3月16日
下一篇 2017年3月16日

相关推荐