<p>在使用requests进行http请求的时候,遇到了在请求几个页面就报错,在网上结合其他人的解决方法,总结了以下几点。</p>
讯享网
报错信息:urllib3.exceptions.MaxRetryError: HTTPConnectionPool(host=‘’, port=‘’): Max retries exceeded with url: ‘’ (Caused by NewConnectionError(‘<urllib3.connection.HTTPConnection object at 0x000001963DDF7D90>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。’))
- 打开设置中自动检测
具体操作参考Python报错:ConnectionRefusedError: [WinError 10061] 由于目标计算机积极拒绝,无法连接。_有无目标计算机积极拒绝,无法连接网络-CSDN博客
- 在请求前加上
讯享网proxies = {“http”: None, “https”: None} response = requests.get(url=url, params=params, headers=headers, proxies=proxies, verify=False)
- 加上requests.session() 功能
session = requests.Session() session.trust_env = False response = session.get(url=url, params=params, headers=headers, proxies=proxies, verify=False)
- 访问频率的设置
在requests发生请求时,由于太过频繁,可以使请求的速度
讯享网time.sleep(1) 但是加上这个之后还是可能会发生错误提示,sleep会让进程掉线,后来我也将sleep给去掉了
在完成了以上配置之后,正当我以为接下来就是静候佳音了,没想到转眼又给我报另外一个错:ConnectionResetError: [WinError 10054] 远程主机强迫关闭了一个现有的连接。
- 在request后面加一个关闭的操作或者在headers中把‘Connection’:‘keep-alive’改为‘Connection’:‘close’,
response = session.get(url=url, params=params, headers=headers, proxies=proxies, verify=False) response.close()time.sleep(2)
讯享网headers = { # 'Connection': 'keep-alive', 'Connection':'close', 'User-Agent': '....',
}
讯享网

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/204318.html