草庐IT

pipelined

全部标签

mysql - 无法在 Bluemix Build & Deploy Pipeline 中运行单元测试,因为服务器无法连接到 ClearDB MySQL

已解决!看起来Bluemix中的管道服务已更新,与ClearDB的连接现在运行良好!感谢插入这一变化的人!:)--我在Bluemix构建和部署管道中运行代码,而不是在LibertyProfile应用程序服务器中运行代码(应用程序在那里运行良好),问题在于运行我的单元时管道的构建阶段(mvncleaninstall)测试,这里是错误信息BuildingnewHibernateSessionFactory2015-04-1115:04:49[main]ERRORo.h.util.JDBCExceptionReporter-CommunicationslinkfailureThelastpa

java - 网络 : back propogate pressure in channel handler pipeline to slow down sender

我正在使用netty开发应用程序,它将通过TCP监听特定端口。一旦接收到字节,我就有了一个带有业务逻辑的管道来运行接收到的字节。该管道由多个channel处理程序组成,如header解码器、应用程序级碎片处理程序等。在管道的末端,一旦消息被处理,管道中的最后一个处理程序(比如BufferWriter)会将处理过的消息放入阻塞队列。这个阻塞队列就像缓冲区,而BufferWriter就像生产者。请注意,此阻塞队列在所有channel之间共享。因此,应用程序收到的所有数据都将写入单个队列。还有另一个预定的执行程序服务将作为此缓冲区的使用者。这个消费者是周期性的任务,它以一定的时间间隔运行,从

http - 往返时间 Http on non persistent, persistent, persistent with pipelining

网络是我硕士学位的最后一门类(class)。我确实有一个关于如何计算非持久、持久和持久流水线的http往返时间的问题。在花了无数小时阅读有关该问题、从其他大学下载笔记甚至搜索youtube视频后,我无法解决这个问题。为了理解RTT是如何计算的,我们假设一个客户端请求一个包含10个图像的HTML页面。[让传播延迟保持为零。]请按照我的逻辑首先,TCP连接进行的3次握手算作1个RTT。TCP连接关闭时也是如此。1)在非持久性HTTP中,我们必须建立TCP连接,因此到目前为止它是1RTT。因为我们有10个对象,所以我们将有2*10=20个RTT。这导致1RTT+20RTT=21RTT。[另一

iOS Metal : Unable to create compute pipeline state with function

我正在尝试使用iOSMetalFramework在GPU上制作一个简单的数独应用程序。我按照这篇博文的说明操作:http://memkite.com/blog/2014/12/15/data-parallel-programming-with-metal-and-swift-for-iphoneipad-gpu/我在这里对我的代码进行版本控制:https://github.com/mateuszbuda/Sudoku(在写这个问题时HEAD是提交c3e06e0)我在调用时遇到了错误newComputePipelineStateWithFunction那是在ViewController中

java - 如何将模型从 ML Pipeline 保存到 S3 或 HDFS?

我正在尝试保存MLPipeline生成的数千个模型。如答案中所示here,模型可以保存如下:importjava.io._defsaveModel(name:String,model:PipelineModel)={valoos=newObjectOutputStream(newFileOutputStream(s"/some/path/$name"))oos.writeObject(model)oos.close}schools.zip(bySchoolArrayModels).foreach{case(name,model)=>saveModel(name,Model)}我已经尝试

python - 从 Gitlab Pipelines 上传到 pypi

我正在尝试使用GitlabCI作业将包上传到pypi,但我无法让它工作:/有人有工作示例吗?到目前为止,我在我的.gitlab-ci.yaml中尝试了什么(从我的本地机器上,它们都在工作):用.pypirc文件缠绕-echo"[distutils]">>~/.pypirc-echo"index-servers=">>~/.pypirc-echo"pypi">>~/.pypirc-echo"">>~/.pypirc-echo"[pypi]">>~/.pypirc-'echo"repository:https://upload.pypi.org/legacy/">>~/.pypirc'-'

python - sklearn : use Pipeline in a RandomizedSearchCV?

我希望能够在sklearn的RandomizedSearchCV构造中使用管道。但是现在我认为只支持估算器。这是我希望能够执行的操作的示例:importnumpyasnpfromsklearn.grid_searchimportRandomizedSearchCVfromsklearn.datasetsimportload_digitsfromsklearn.svmimportSVCfromsklearn.preprocessingimportStandardScalerfromsklearn.pipelineimportPipeline#getsomedatairis=load_di

python - 属性错误 : lower not found; using a Pipeline with a CountVectorizer in scikit-learn

我有这样一个语料库:X_train=[['thisisandummyexample']['inrealitythislineisverylong']...['hereisalasttextinthetrainingset']]和一些标签:y_train=[1,5,...,3]我想按如下方式使用Pipeline和GridSearch:pipeline=Pipeline([('vect',CountVectorizer()),('tfidf',TfidfTransformer()),('reg',SGDRegressor())])parameters={'vect__max_df':(0.

python - 如何在 Sklearn Pipeline 中进行 Onehotencoding

我正在尝试对我的Pandas数据框的分类变量进行oneHotEncode,其中包括分类变量和连续变量。我意识到这可以使用pandas.get_dummies()函数轻松完成,但我需要使用管道以便稍后生成PMML文件。这是创建映射器的代码。我想要编码的分类变量存储在名为“dummies”的列表中。fromsklearn_pandasimportDataFrameMapperfromsklearn.preprocessingimportOneHotEncoderfromsklearn.preprocessingimportLabelEncodermapper=DataFrameMapper

python - 如何在 scikit-learn 的 `pipeline` 中使用自定义特征选择函数

假设我想通过交叉验证和使用pipeline类比较包含n>2个特征的特定(监督)数据集的不同降维方法。例如,如果我想试验PCA与LDA,我可以这样做:fromsklearn.cross_validationimportcross_val_score,KFoldfromsklearn.pipelineimportPipelinefromsklearn.naive_bayesimportGaussianNBfromsklearn.preprocessingimportStandardScalerfromsklearn.ldaimportLDAfromsklearn.decomposition