草庐IT

internal-storage

全部标签

hadoop - pig 没有运行 :Unhandled internal error. jline.Terminal.getTerminal()Ljline/Terminal;

当我尝试通过终端运行pig并给出命令pig时。显示错误:16/01/2202:51:54INFOpig.ExecTypeProvider:TryingExecType:LOCAL16/01/2202:51:54INFOpig.ExecTypeProvider:TryingExecType:MAPREDUCE16/01/2202:51:54INFOpig.ExecTypeProvider:PickedMAPREDUCEastheExecType2016-01-2202:51:54,470[main]INFOorg.apache.pig.Main-ApachePigversion0.13.

hadoop - 在windows : 'hive' is not recognized as an internal or external command,可运行程序或批处理文件上安装Hive

我已经在Windows上安装了Hadoop2.7.3,并且可以启动集群。现在我想要配置单元并完成以下步骤:1.下载db-derby-10.12.1.1-bin.zip,解压并启动startNetworkServer-h0.0.0.0.2.从镜像站点下载apache-hive-1.1.1-bin.tar.gz并解压。创建的hive-site.xml具有以下属性:javax.jdo.option.ConnectionURLjavax.jdo.option.ConnectionDriverNamehive.server2.enable.impersonationhive.server2.au

hadoop - Hive INSERT OVERWRITE 到 Google Storage 作为 LOCAL DIRECTORY 不起作用

我使用以下Hive查询:hive>INSERTOVERWRITELOCALDIRECTORY"gs://Google/Storage/Directory/Path/Name"rowformatdelimitedfieldsterminatedby','select*from.;我收到以下错误:"Error:FailedwithexceptionWrongFS:"gs://Google/Storage/Directory/PathName",expected:file:///我做错了什么? 最佳答案 从语法中删除Local。参见下面的

hadoop - 使用 globStatus 和 Google Cloud Storage 存储桶作为输入时无法运行 Spark 作业

我正在使用Spark1.1。我有一个Spark作业,它只在存储桶下寻找特定模式的文件夹(即以...开头的文件夹),并且应该只处理那些。我通过执行以下操作实现了这一点:FileSystemfs=FileSystem.get(newConfiguration(true));FileStatus[]statusArr=fs.globStatus(newPath(inputPath));ListstatusList=Arrays.asList(statusArr);ListpathsStr=convertFileStatusToPath(statusList);JavaRDDpaths=sc.

hadoop - Hbase 和 pig 中的错误。错误 2998 : Unhandled internal error

我在我的机器上运行以下命令:pig-xlocal-fHbase/load_hbase.pig这是我得到的PigStackTrace,希望能更好地理解我的问题。ERROR2998:Unhandledinternalerror.org/apache/hadoop/hbase/filter/WritableByteArrayComparablejava.lang.NoClassDefFoundError:org/apache/hadoop/hbase/filter/WritableByteArrayComparableatjava.lang.Class.forName0(NativeMeth

hadoop - Hadoop 和 Google Cloud Storage Connector 的问题

我已经通过谷歌控制台中的Deployments界面部署了一个hadoop集群。(Hadoop2.x)我的任务是过滤存储在一个GoogleStorage(GS)存储桶中的数据,并将结果放入另一个存储桶中。所以,这是一个只有map的工作,带有简单的python脚本。请注意,集群和输出桶位于同一区域(EU)。利用GoogleCloudStorageConnector,我运行以下流媒体作业:hadoopjar/home/hadoop/hadoop-install/share/hadoop/tools/lib/hadoop-streaming-2.4.1.jar\-Dmapreduce.outp

hadoop - 将文件从 Google Cloud Storage 加载到本地 Hadoop 集群

我正在尝试将Google云存储文件加载到本地Hadoop集群。我开发了一个解决方法(程序)来将本地EdgeNode和distcp上的文件下载到Hadoop。但这似乎是双向解决方法,并没有给人留下深刻印象。我浏览了几个网站(links1、link2),这些网站总结了使用HadoopGoogleCloudStorage连接器进行此类过程,并且需要基础架构级别的配置,这在所有情况下都是不可能的。有什么方法可以使用Python或Java以编程方式将文件直接从CloudStorage复制到Hadoop。 最佳答案 要以编程方式执行此操作,您可

azure - HDInsight : Selection method not accepting Storage account

在部署HDInsight群集时,在DataSource下,无论我选择哪种选择方法(“来自所有订阅”或“访问key”),我都无法附加我的存储帐户。我在东南亚地区创建了一个新的存储帐户(它是与“存储”分开创建的)并希望使用它。这是我的做法:第一部分:选择方法:来自所有订阅-配置所需的设置(按照屏幕截图中的1、2和3)一切都很好。上面写着“正在获取访问key”。到目前为止,一切都很好。它还会选择默认容器。然后它抛出这个错误:第二部分:选择方法:访问键-我选择“访问key”,输入存储名称,它会选择默认容器......一切都很好。然后我从存储帐户粘贴访问key然后它抛出这个错误:存储帐户是Sta

hadoop - 运行 pig 0.7.0 错误 : ERROR 2998: Unhandled internal error

我必须将pig连接到一个hadoop,该hadoop与Hadoop0.20.0相比有所变化。我选择pig0.7.0,并通过设置PIG_CLASSPATHexportPIG_CLASSPATH=$HADOOP_HOME/conf当我运行pig时,报错如下:ERRORorg.apache.pig.Main-ERROR2999:Unexpectedinternalerror.FailedtocreateDataStorage因此,我复制$HADOOP_HOME中的hadoop-core.jar以覆盖$PIG_HOME/lib中的hadoop20.jar,然后“ant”。现在,我可以运行pig

scala - oozie spark 2.0 操作给出异常 : java. lang.NoClassDefFoundError: org/apache/spark/internal/Logging

我在尝试使用oozie运行spark操作时遇到以下异常ERRORyarn.ApplicationMaster:Userclassthrewexception:java.lang.NoClassDefFoundError:org/apache/spark/internal/Loggingjava.lang.NoClassDefFoundError:org/apache/spark/internal/Loggingatjava.lang.ClassLoader.defineClass1(NativeMethod)atjava.lang.ClassLoader.defineClass(Cla