草庐IT

python - urllib2.URLError : handshake failure

我正在对我们的数据库服务进行大量的http请求循环。一切正常,但每当我运行它时,在(看似随机的)成功查询之后,我收到以下错误:urllib2.URLError:.我正在使用python,urllib2发送请求,urllib对我的URL中的一些内容进行编码,仅此而已。就像我说的,它看起来完全是随机的。我刚刚运行它,但在6个请求后失败了。前一次,它在49次成功尝试后崩溃了。以前有人遇到过这个问题吗?谢谢 最佳答案 它更关心网络而不是你的代码。我建议你可以使用requests模块并在模块内重试。或者您可以在代码中添加一些重试。例如,你可以

python - 导入错误 : No module named urllib3 when installing pip

我遇到virtualenvwrapper的问题,需要重新安装pip作为第一步,我收到了关于urllib3的奇怪投诉:$pythonget-pip.pyTraceback(mostrecentcalllast):File"get-pip.py",line19177,inmain()File"get-pip.py",line194,inmainbootstrap(tmpdir=tmpdir)File"get-pip.py",line82,inbootstrapimportpipFile"/tmp/tmppQTQty/pip.zip/pip/__init__.py",line16,inFil

被 urllib2 阻止的 Python 进程

我设置了一个进程来读取要下载的传入url的队列,但是当urllib2打开连接时系统挂起。importurllib2,multiprocessingfromthreadingimportThreadfromQueueimportQueuefrommultiprocessingimportQueueasProcessQueue,Processdefdownload(url):"""Downloadapagefromanurl.url[str]:urltoget.return[unicode]:pagedownloaded."""ifsettings.DEBUG:printu'Downloa

python - socket ResourceWarning 在 Python 3 中使用 urllib

我正在使用urllib.request.urlopen()从我正在尝试测试的Web服务获取GET。这会返回一个HTTPResponse对象,然后我会通过read()获取响应主体。但我总是在socket.py中看到关于未关闭的套接字的ResourceWarning相关函数如下:fromurllib.requestimportRequest,urlopendefget_from_webservice(url):"""GETfromthewebservice"""req=Request(url,method="GET",headers=HEADERS)withurlopen(req)asrs

python - 使用 Python urllib 超时文件下载?

这里是Python初学者。如果该过程花费的时间超过500秒,我希望能够使我的视频文件下载超时。importurllibtry:urllib.urlretrieve("http://www.videoURL.mp4","filename.mp4")exceptExceptionase:print("error")我该如何修改我的代码来实现这一点? 最佳答案 更好的方法是使用requests,这样您就可以流式传输结果并轻松检查超时:importrequests#Maketheactualrequest,setthetimeoutforn

Python:urllib2.HTTPError:HTTP 错误 401:未经授权

我试图加载一个网页,但我遇到了这个问题。我有用户名和密码,但我不知道如何在python代码中使用它们。我查阅了python教程,这是我写的:importurllib2password_mgr=urllib2.HTTPPasswordMgrWithDefaultRealm()username='user'password='pass'top_level_url="www.something.com:80"password_mgr.add_password(None,top_level_url,username,password)handler=urllib2.HTTPBasicAuthH

python urllib2 - 在抓取之前等待页面完成加载/重定向?

我正在学习制作网络抓取工具,并想为个人项目抓取TripAdvisor,使用urllib2抓取html。但是,我遇到了一个问题,使用下面的代码,我返回的html不正确,因为页面似乎需要一秒钟才能重定向(您可以通过访问url来验证这一点)-而我得到了代码来自最初短暂出现的页面。是否有一些行为或参数可以设置以确保页面在获取网站内容之前已完全完成加载/重定向?importurllib2frombs4importBeautifulSoupbostonPage=urllib2.urlopen("http://www.tripadvisor.com/HACSearch?geo=34438#02,13

python - HTTP 基本身份验证似乎不适用于 python 中的 urllib2

我正在尝试使用urllib2下载受基本身份验证保护的页面。我使用的是python2.7,但我也在另一台装有python2.5的计算机上尝试过,遇到了完全相同的行为。我遵循了thisguide中给出的示例尽可能接近,这是我生成的代码:importurllib2passman=urllib2.HTTPPasswordMgrWithDefaultRealm()passman.add_password(None,"http://authenticationsite.com/',"protected","password")authhandler=urllib2.HTTPBasicAuthHan

python - 关闭 urllib2 连接

我正在使用urllib2从ftp和http服务器加载文件。有些服务器每个IP只支持一个连接。问题是urllib2不会立即关闭连接。查看示例程序。fromurllib2importurlopenfromtimeimportsleepurl='ftp://user:pass@host/big_file.ext'defload_file(url):f=urlopen(url)loaded=0whileTrue:data=f.read(1024)ifdata=='':breakloaded+=len(data)f.close()#sleep(1)print('loaded{0}'.format

python urllib2 : connection reset by peer

我有一个perl程序可以从我的大学图书馆的数据库中检索数据,并且运行良好。现在想用python重写却遇到问题Perl代码是:my$ua=LWP::UserAgent->new;$ua->cookie_jar(HTTP::Cookies->new());$ua->timeout(30);$ua->env_proxy;my$response=$ua->get($url);我写的python代码是:cj=CookieJar();request=urllib2.Request(url);#url:targetwebpageopener=urllib2.build_opener(urllib2.