草庐IT

manage-sharded-cluster-balancer

全部标签

java - 将 JSF Managed Beans 移动到 Spring beans

我刚刚在JSFweb应用程序中引入了Spring,现在我很想通过将这些beans移动到contextConfigLocationXML文件(指定org.springframework.web.jsf.el.faces-config.xml中的SpringBeanFacesELResolver),而不是将bean放在faces-config.xml文件中。与JSFbean相比,如果我转向Springbean(比如获得依赖注入(inject)功能),我看到了很多优势,所以我几乎不能反对转向Springbean,但我想听听其他人的意见,我可能会遇到什么问题如果我这样做,或者这种情况的最佳做法

java - 调用 createEntityManagerFactory 时为 "You cannot set autocommit during a managed transaction"

我正在尝试通过在我的应用程序中分离模式来实现Multi-Tenancy。为此,我有一个Tenant实体,其中包含一个StringschemaName,并且我有一个SingletonStartupEJB在启动时创建EntityManagerFactory的映射;一个工厂分配给每个Tenant。这是我的EJB:@Startup@SingletonpublicclassTenantManagementServiceImplimplementsTenantManagementService{privateMapentityManagerFactoryMap;@PersistenceContex

java - Spark : get number of cluster cores programmatically

我在yarn集群中运行我的spark应用程序。在我的代码中,我使用队列的可用核心数在我的数据集上创建分区:Datasetds=...ds.coalesce(config.getNumberOfCores());我的问题:如何以编程方式而非配置方式获取队列的可用核心数? 最佳答案 有一些方法可以从Spark中获取集群中的执行器数量和核心数量。这是我过去使用过的一些Scala实用程序代码。您应该能够轻松地将其改编为Java。有两个关键思想:worker的数量是executor的数量减一或sc.getExecutorStorageStat

java - java.sql.SQLException :[Microsoft][ODBC Driver Manager] Invalid descriptor index 异常

我使用下面的代码try{Class.forName("sun.jdbc.odbc.JdbcOdbcDriver");Connectioncon=DriverManager.getConnection("jdbc:odbc:access");Stringsql="Select*fromtable";Statementstmt=con.createStatement();ResultSetrs=stmt.executeQuery(sql);ResultSetMetaDatamd=rs.getMetaData();intcolumns=md.getColumnCount();for(inti

java - 捕捉 Ctrl+C 信号抛出异常 "Job manager has been shut down"

我正在尝试添加对信号的支持(尤其是对于Ctrl+C)。我的工具是用Java编写的,我想在Ctrl+C被捕获时执行清理。我的主文件是应用程序,有以下和平代码:if(ArgDefinitions.getInstance().hasOption(ArgNames.EXECUTE)){performShutdownHooks();preformRun();}应用程序解析用户的选项并运行正确的方法。因此,当用户使用execute选项并单击Ctrl+C时,我希望程序停止并清理该区域。我添加了performShutdownHooks方法来处理信号,它看起来如下:privatevoidperformS

java - 构建提升 : how do you manage dependencies?

我试图了解将我们的Java项目从Snaphot/Release策略切换到构建促销的所有影响。一个明显的步骤是,每个构建最终都会创建一个Artifactory,该Artifactory可能会一直进入生产环境,因此不再有快照。但是,我应该如何管理从一个项目到其他Artifactory的链接,这些Artifactory可能允许也可能不允许进入生产阶段?我很难找到关于这个特定主题的有值(value)的信息。当然,构建提升被谈论了很多,但是从迁移到构建提升的依赖管理却鲜为人知。我看到两个选择:只能依赖之前已经提升到生产环境的Artifactory当一个Artifactory依赖另一个Artifa

java - Spark Dataframe Write to CSV 在 Standalone Cluster Mode 下创建_temporary 目录文件

我在一个有2个工作节点的集群中运行sparkjob!我正在使用下面的代码(sparkjava)将计算的数据帧作为csv保存到工作节点。dataframe.write().option("header","false").mode(SaveMode.Overwrite).csv(outputDirPath);我试图了解spark如何在每个工作节点上写入多个部分文件。Run1)worker1有partfiles和SUCCESS;worker2有_temporarty/task*/part*每个任务都有部分文件运行。Run2)worker1有部分文件和_temporary目录;worker2

java - 如何通过 BeanManager 创建和销毁 CDI (Weld) Managed Beans?

我正在尝试使用BeanManager而不是Instance.select().get()创建CDI托管bean的实例。这被建议作为解决我一直遇到的ApplicationScopedbean及其依赖项的垃圾收集问题的解决方法-请参阅CDIApplicationandDependentscopescanconspiretoimpactgarbagecollection?对于背景和这个建议的解决方法。如果您在ApplicationScopedbean上使用Instance编程查找方法,则Instance对象和您从中获得的任何bean最终都依赖于ApplicationScopedbean,因此

java - quartz 调度器 : Trigger some jobs on every cluster node and some only once per cluster

我在集群环境中使用QuartzScheduler作为Springbean。我有一些用@NotConcurrent注释的作业,它们在每个集群中运行一次(即仅在一个节点中,仅在一个线程中)。现在我需要在集群的每个节点上运行一个作业。我删除了@NotConcurrent注释,但它只在一台机器上的每个线程上运行。它不会在其他节点上触发。我应该用什么来注释作业?示例:Job1NotConcurrentannotatedisscheduledatmidnight=>它每个午夜只在一台机器上触发。Job2注释为午夜安排=>它在每个午夜在每台机器上触发。谢谢。 最佳答案

java - 持久层的命名约定 : DAO vs Manager vs . ..?

免责声明:我几乎可以肯定我以前见过同样的问题,但现在找不到了。如果有人发现该问题,请提供链接。关于实现CRUD操作的类的最佳名称,我至少听到了两种意见:有人说DAO是一个经典的名字,每个人都知道它的意思,但也有人说Manager更符合CRUD功能。我应该在什么时候选择一个或另一个(或另一个)名称时是否有任何明确的规则? 最佳答案 我绝对不喜欢经理;“管理”某事可能意味着(并且曾经意味着)各种各样的事情。如果您担心人们不知道DAO是什么意思,您可以将其拼写为“DataAccess”,例如。但我发现DAO得到了广泛的理解。另一种方法是使