草庐IT

EXECUTORS

全部标签

具有节流/吞吐量控制的 Java Executor

我正在寻找一个JavaExecutor,它允许我指定节流/吞吐量/步调限制,例如,一秒钟内最多可以处理100个任务——如果提交了更多任务,它们应该排队并且后执行。这样做的主要目的是避免在访问外部API或服务器时遇到限制。我想知道是否是基础Java(我怀疑,因为我检查过)或其他可靠的地方(例如ApacheCommons)提供了这个,或者我是否必须自己编写。最好是轻量级的。我不介意自己写,但如果有一个“标准”版本,我至少想先看看它。 最佳答案 看看GuavaRateLimiter:Aratelimiter.Conceptually,ar

具有节流/吞吐量控制的 Java Executor

我正在寻找一个JavaExecutor,它允许我指定节流/吞吐量/步调限制,例如,一秒钟内最多可以处理100个任务——如果提交了更多任务,它们应该排队并且后执行。这样做的主要目的是避免在访问外部API或服务器时遇到限制。我想知道是否是基础Java(我怀疑,因为我检查过)或其他可靠的地方(例如ApacheCommons)提供了这个,或者我是否必须自己编写。最好是轻量级的。我不介意自己写,但如果有一个“标准”版本,我至少想先看看它。 最佳答案 看看GuavaRateLimiter:Aratelimiter.Conceptually,ar

java.lang.LinkageError : loader constraint violation: when resolving method "org. jboss.resteasy.client.core.executors.ApacheHttpClient4Executor 错误

JSF网络应用程序尝试从JavaEE网络服务检索资源。JSF网络应用程序运行良好。由于我添加了Http客户端源来检索JBoss实例声明的Web服务资源:15:29:47,689SEVERE[javax.enterprise.resource.webcontainer.jsf.application](http--0.0.0.0-443-1)ErrorRenderingView[/index.xhtml]:javax.el.ELException:/surfaceParts/sideBarLeft.xhtml@14,79value="#{categories.cats}":java.la

hadoop - Apache spark 1.2.1 独立集群中的剂量, 'number of executors equals to number of SPARK_WORKER_INSTANCES'?

Apachespark1.2.1Standalone集群中的Dose,“执行程序的数量等于SPARK_WORKER_INSTANCES的数量”?Ihavedonebelowsettinginconf/spark-env.shSPARK_EXECUTOR_CORES=4SPARK_NUM_EXECUTORS=3SPARK_EXECUTOR_MEMORY=2G如果没有,谁能告诉我如何增加独立集群中的执行程序数量?提前致谢。 最佳答案 在独立模式下,总执行器数量等于集群中的总工作器数量。spark-env.sh中的SPARK_WORKER

hadoop - 为什么cloudera建议选择他们在Spark中做的executors、cores和RAM的数量

在博文中:http://blog.cloudera.com/blog/2015/03/how-to-tune-your-apache-spark-jobs-part-2/我用天真的方式来解决它:给定16个内核、64个RAM、8个线程-使用15个内核、63个RAM、6个执行程序。相反,他们推荐17个执行程序、5个内核和19个RAM。我看到他们有一个RAM方程式,但我不知道发生了什么。如果您只在一台机器上运行它(而不是通过HDFS),这是否仍然适用?感谢帮助 最佳答案 我认为他们很好地解释了为什么here:(查看从幻灯片5开始的幻灯片)

hadoop - 如果工作节点上未安装 Spark(在 YARN 上),如何启动 Spark Executors?

我有一个关于以集群模式在YARN上运行的ApacheSpark的问题。根据thisthread,Spark本身不必安装在集群中的每个(工作)节点上。我的问题出在SparkExecutors上:一般来说,YARN或者资源管理器应该决定资源分配。因此,SparkExecutors可以在集群中的任何(工作)节点上随机启动。但是,如果没有在任何(工作)节点上安装Spark,YARN如何启动SparkExecutors? 最佳答案 在高层次上,当Spark应用程序在YARN上启动时,ApplicationMaster(Spark特定)将在其中

hadoop - Spark : Spark not using the all the executors configured

我们正在运行一个spark流应用程序,它有批处理排队..但它没有使用为其配置的所有执行程序..它被配置为使用24个执行器,但实际上它只使用了16并且批处理正在排队我们怎样才能让它使用所有24个执行器而不让它排队批处理 最佳答案 it'sconfiguredtouse24executorsbutactuallyit'sonlyusing16您的作业期望分配给它24个容器/执行器,但它只收到16个。这可能是由于以下原因:集群未配置为提供预期数量的资源资源可以是由底层集群管理器(yarn/mesos)配置的内存或vcores。您可以通过检

hadoop - Spark + yarn : How to retain logs of lost-executors

使用配置有Yarn的Spark(在client模式下,虽然与问题关系不大),我发现我的一些Executors失败。Executor是一个Yarn-Container,它的日志文件位于:/var/log/hadoop-yarn/containers/containerID。容器生成的一些(关键)事件/日志渗透到驱动程序,但不是全部。据观察,当一个Executor失败时,它的logfile会在它死后立即被清除。有什么方法可以防止这些日志因调试目的而被删除吗? 最佳答案 既然,你的yarn上有Spark,我希望这有助于收集所有日志yarn

java - Executors.newFixedThreadPool(1) 和 Executors.newSingleThreadExecutor() 的区别

我的问题是:使用Executors.newFixedThreadPool(1)有意义吗??。在两个线程(main+oneAnotherThread)场景中使用执行器服务是否有效?通过调用newRunnable(){}直接创建新线程是否比使用ExecutorService更好?在这种情况下使用ExecutorService有哪些优点和缺点?PS:主线程和oneAnotherThread不访问任何公共(public)资源。我已经完成了:WhataretheadvantagesofusinganExecutorService?.和Onlyonethreadatatime!

java - Executors 相对于 new Thread 的优势

在Java程序中使用执行器比使用线程有什么好处。比如ExecutorServicepool=Executors.newFixedThreadPool(2);voidsomeMethod(){//ThreadnewThread(newSomeRunnable()).start();//vs//Executorpool.execute(newSomeRunnable());}执行器是否只限制允许同时运行的线程数(线程池)?它实际上是否将可运行对象多路复用到它创建的线程上?如果不是,它是否只是一种避免每次都必须编写newThread(runnable).start()的方法?