草庐IT

Hadoop - 重启datanode和tasktracker

全部标签

java - 重启客户端后重新连接远程Akka系统

我的用例如下。机器上的应用程序连接到远程机器,在它们上执行脚本并返回结果。我正在使用AkkaFramework进行远程处理,并为客户端应用程序使用PlayFramework。在我的远程机器上运行的服务器代码如下:publicstaticvoidmain(String[]args){OnCallServerapp=newOnCallServer();app.executeServer();}privatevoidexecuteServer(){ActorSystemsystem=ActorSystem.create("OnCallServer");}(只是在远程机器上启动一个actor系

java - Ehcache 磁盘存储在应用程序重启期间被删除

我有一个ehcache设置,它工作得很好,除了每次我重新启动我的应用程序/服务器(TcServer/Tomcat上的Spring应用程序)时永久磁盘存储数据都会被删除。使用持久性磁盘存储的全部意义在于能够在应用程序重新启动时保留缓存。这是我的ehcache.xml知道为什么会这样吗? 最佳答案 作为documentationnotes,Ehcache不会写入它要从磁盘恢复的索引文件,除非通过VM关闭Hook或(因为这是在servlet容器中)它提供的servlet上下文监听器正确关闭缓存。查看Ehcachedocumentation

java - 想要在不重启服务器的情况下重新加载 web.xml

在生产环境中,我想更改J2EEWeb应用程序中的web.xml,但我不想重新启动服务器或应用程序,因为这会给很多在线用户带来问题。提出一种方法,以便我的web.xml更改应反射(reflect)在Web应用程序中。 最佳答案 据我所知,如果您需要它来读取新的web.xml,则无法绕过重新启动服务器,因为配置文件是在服务器启动时读取的(即考虑它仅在服务小程序初始化())。如果有人能指出我们如何热部署配置文件,我也很想知道。 关于java-想要在不重启服务器的情况下重新加载web.xml,我

java - ActiveMQ 不会重启,因为 KahaDB 被锁定

在我的开发机器上本地启动/停止ActiveMQ(5.6)我刚刚运行./activemqstart和./activemqstop分别。在我们的QA机器上,我们将其作为服务安装并运行serviceactivemqstart和serviceactivemqstop分别。刚刚去弹QA机发了serviceactivemqstop,然后serviceactivemqstart重新启动它。我看到正在创建一个进程ID,如果我运行ps-aef|grepactivemq我看到了ActiveMQ服务器的生机勃勃的过程。但是如果我去http://:8161/admin我收到了您在服务器停机时看到的典型错误:F

Java 服务重启 4 或 5 次

我正在运行一个Java服务来从数据库中轮询数据。在我的课上,我有一个线程,每5秒在db中查找数据......在特定时间(比如下类时间的下午6点),我让我的线程hibernate到某个配置的时间延迟。问题:当我让我的线程hibernate时,我的Java服务似乎重新启动了......为什么我要启动4、5个JVM...请帮助我理解....ERROR|wrapper|2013/12/2115:40:10|JVMdidnotexitonrequest,terminationrequested.STATUS|wrapper|2013/12/2115:40:10|JVMexitedafterbei

java - 在不重新部署的情况下重启 GAE 实例

我目前正在运行一个(免费的)GoogleAppEngine实例,我需要手动重启它。但是,在我项目的“实例”选项卡中,它只为我提供了“查看日志”或“关闭”的选项。关闭实例不是一个选项,因为我不想手动将应用程序重新部署到googleappspot。这不是一个选项,因为我需要从多个位置(甚至在路上)执行此操作,并且我的项目位于一台台式计算机上。我希望能够重新启动实例的原因是因为我的Java应用程序中的缓存。我缓存了某些用户和数据,这样我就很少需要调用数据存储。但是,当我想从数据存储中删除某些记录时,它们仍然存在于我的应用程序的缓存中。这意味着用户可以访问已经被手动删除的数据。我知道可以编写一

java - 线程主java.lang.exceptionininitializerError中的异常在没有hadoop的情况下安装spark

我正在尝试安装spark2.3.0,更具体地说,它是spark-2.3.0-bin-hadoppo2.7'D:\spark\bin'已经添加到环境变量PATH中。同时,安装了JDK-10。未安装Hadoop。但是谷歌说spark可以在没有hadoop的情况下工作。这是错误信息C:\Users\a>spark-shellExceptioninthread"main"java.lang.ExceptionInInitializerErroratorg.apache.hadoop.util.StringUtils.(StringUtils.java:80)atorg.apache.hadoo

hadoop源码解析-HDFS通讯协议(上- ClientProtocol 和 ClientDataNodeProtocol)

HDFS通讯协议及主要流程HDFS的通讯协议HDFS架构HDFS架构HDFS基本概念HDFS通讯协议HDFSRPC接口HDFS的通讯协议HDFS架构HDFS(Hadoop分布式文件系统)是ApacheHadoopCore项目的一部分,被设计为可运行在通用硬件上、能处理超大文件的分布式文件系统,其具有高容错、高吞吐、易扩展、高可靠等特性。HDFS架构HDFS是一个主/从体系结构的分布式系统,在HDFS集群中,有一个NameNode和一组DataNode,用户可以通过HDFS客户端同NameNode和DataNode交互访问数据。其中NameNode是主,DataNode是从。NameNode负责

java - 如何在不重启服务器的情况下编译单个/多个java文件?是否有相同的 Eclipse 插件?

我想在不重新启动Weblogic和Tomcat的情况下在我的应用程序中编译多个java文件。否则,这会花费很多时间。为此,我得到了一个HotswapplugininEclipse,但这并非在所有情况下都有效。它说它适用于单个文件编译。即使我使用它也不是在所有情况下都有效。有没有其他方法可以做到这一点,或者有没有其他插件/脚本/软件可以帮助我做到这一点?如果有一些开源的,会很有帮助。提前致谢。 最佳答案 一件事是编译类,但您还需要JAVAVM重新加载类并使用它们,这称为热插拔。为了最好地实现类的热交换,你需要像javarebel这样的

Cloudera虚拟机配置(虚拟机环境自带Hadoop、Impala等大数据处理应用)

        上学期的大数据处理课程,笔者被分配到Impala的汇报主题。然而汇报内容如果单纯只介绍Impala的理论知识,实在是有些太过肤浅,最起码得有一些实际操作来展示一下Impala的功能。但是Impala的配置实在是有些困难与繁琐,于是笔者通过各种渠道找到了Cloudera公司(Hadoop数据管理软件与服务提供商)在早些年发行的虚拟机文件,通过配置该虚拟机可以直接获得一个较为完整的大数据处理应用环境(包括Hadoop、Impala等数种大数据处理应用)。【虚拟机文件资源已上传百度网盘,没办法,这个虚拟机文件实在是太大了(5+G),要不然我就直接在博客上资源绑定了】链接:https: