【解决爬虫错误(urllib.error.URLError:)】当用多线程爬取网站出现urlopen error [errno 10060]的错误,也就是连接失败。原因是多个线程爬去某个网站的数据,每次连接完需要sleep(1)一会,不然该网站服务端的防火墙会ban掉你的connect。睡眠等待机制会减少urlopen error [errno 10060]出现的概率,但访问次数多了还是会出现
开始的解决思路是每次连接的时候换用不同的useragent,结果仍会出现urlopen error [errno 10060]的异常。
后看了网上说法是连接时网络不稳定造成的,于是写了个多次尝试连接的函数
#打开网页链接
def openlink(self,link):
maNum = 10
for tries in range(maxTryNum):
try:
req = urllib.request.Request(link, headers = self.headers)
response = urllib.request.urlopen(link)
return response
except:
if tries < (maxTryNum - 1):
continue
else:
print("Has tried %d times to access url %s, all failed!", maxNum, link)
break
推荐阅读
- 推荐系统论文进阶|CTR预估 论文精读(十一)--Deep Interest Evolution Network(DIEN)
- Python专栏|数据分析的常规流程
- Python|Win10下 Python开发环境搭建(PyCharm + Anaconda) && 环境变量配置 && 常用工具安装配置
- Python绘制小红花
- Pytorch学习|sklearn-SVM 模型保存、交叉验证与网格搜索
- OpenCV|OpenCV-Python实战(18)——深度学习简介与入门示例
- python|8. 文件系统——文件的删除、移动、复制过程以及链接文件
- 爬虫|若想拿下爬虫大单,怎能不会逆向爬虫,价值过万的逆向爬虫教程限时分享
- 分布式|《Python3网络爬虫开发实战(第二版)》内容介绍
- java|微软认真聆听了开源 .NET 开发社区的炮轰( 通过CLI 支持 Hot Reload 功能)