草庐IT

nm-local-dir

全部标签

hadoop - 执行 Pig 脚本 -x local script.pig 和 just script.pig 之间的区别

目前我正在执行我的脚本:/usr/bin/pig/somepath/myscript.pig出于某种原因,pig总是卡在这个阶段。2014-01-2816:49:31,328[main]INFOorg.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher-0%complete如果我用`/usr/bin/pig-xlocal/somepath/myscript.pig`出于某种原因提示路径:Input(s):Failedtoreaddatafrom"file:///path_from_root

hadoop - "LOAD DATA LOCAL INPATH"如何到远程hiveserver

我想使用“LOADDATALOCALINPATH..”在本地机器上导入文件但是,我不能导入$beeline-ujdbc:hive2://example:10000-e"LOADDATALOCALINPATH'tmp/file_20161024.dat'OVERWRITEINTOTABLEsome_tablePARTITION(dt=20161024);"Connectingtojdbc:hive2://example:10000Connectedto:ApacheHive(version2.1.0)Driver:HiveJDBC(version1.2.1)Transactionisol

hadoop - 水槽的 Spool Dir 可以在远程机器上吗?

每当新文件到达特定文件夹时,我都试图从远程机器获取文件到我的hdfs。我在flume中遇到了spooldir的概念,如果spooldir在运行flumeagent的同一台机器上,它工作正常。有什么方法可以在远程机器上配置假脱机目录吗??请帮忙。 最佳答案 您可能知道flume可以产生多个实例,即您可以安装多个flume实例,这些实例在它们之间传递数据。所以回答你的问题:不,水槽不能访问远程假脱机目录。但是你可以安装两个代理,一个在有spool目录的机器上,一个在hadoop节点上。第一个将从假脱机中读取并通过avrorpc将其传递给

java - Jobtracker API 错误 - 调用 localhost/127.0.0.1 :50030 failed on local exception: java. io.EOFException

我正在尝试使用Java连接我的jobtracker。下面显示的是我正在尝试执行的程序publicstaticvoidmain(Stringargs[])throwsIOException{Configurationconf=newConfiguration();conf.addResource(newPath("/home/user/hadoop-1.0.3/conf/core-site.xml"));conf.addResource(newPath("/home/user/hadoop-1.0.3/conf/hdfs-site.xml"));conf.addResource(newP

hadoop - 在 Hive 中, "Load data local inpath"是覆盖现有数据还是追加?

我希望在cron上运行到Hive的导入,并且希望只使用“将数据本地输入路径‘/tmp/data/x’加载到表X”到表中就足够了。后续命令会覆盖表中已有的内容吗?还是会追加? 最佳答案 本站http://wiki.apache.org/hadoop/Hive/LanguageManual在处理Hive时是你的friend。:)解决将数据加载到Hive的页面是http://wiki.apache.org/hadoop/Hive/LanguageManual/DML该页面指出iftheOVERWRITEkeywordisusedthent

hadoop - PIG local和mapreduce模式的区别

在本地运行PIG脚本和在mapreduce上运行的实际区别是什么?我了解mapreduce模式是在安装了hdfs的集群上运行它。这是否意味着本地模式不需要HDFS,因此甚至不会触发mapreduce作业?有什么区别,你什么时候和另一个? 最佳答案 本地模式将构建一个模拟的mapreduce作业,该作业从磁盘上的本地文件运行。理论上相当于MapReduce,但它不是“真正的”mr工作。从用户的角度来看,您不应该能够分辨出差异。本地模式非常适合开发。 关于hadoop-PIGlocal和ma

hadoop - hdfs - ls : Failed on local exception: com. google.protobuf.InvalidProtocolBufferException:

我正在尝试使用下面的命令在hdfs中列出我的目录:ubuntu@ubuntu:~$hadoopfs-lshdfs://127.0.0.1:50075/ls:Failedonlocalexception:com.google.protobuf.InvalidProtocolBufferException:Protocolmessageend-grouptagdidnotmatchexpectedtag.;HostDetails:localhostis:"ubuntu/127.0.0.1";destinationhostis:"ubuntu":50075;这是我的/etc/hosts文件1

hadoop - Spark - java IOException :Failed to create local dir in/tmp/blockmgr*

我试图运行一个长时间运行的Spark作业。执行几个小时后,出现以下异常:Causedby:java.io.IOException:Failedtocreatelocaldirin/tmp/blockmgr-bb765fd4-361f-4ee4-a6ef-adc547d8d838/28试图通过检查来绕过它:/tmp目录中的权限问题。spark服务器未以root身份运行。但是/tmp目录应该对所有用户都是可写的。/tmp目录有足够的空间。 最佳答案 假设您正在使用多个节点,您需要检查参与spark操作的每个节点(master/drive

selenium + chrome109以上版本会自动在C:\Program Files (x86)目录下创建scoped_dir*文件夹

问题如标题所述使用selenium操作chrome109以上版本会在C:\ProgramFiles(x86)目录下创建scoped_dir*文件夹,每次启动都会创建一个,文件夹内容为浏览器的用户配置,大小在20M左右,多次操作后会导致磁盘占满问题。经过查询问题是chromedriver导致,官方仍未修复此问题。可通过以下地址查看问题描述与根因:https://github.com/SeleniumHQ/selenium/issues/11555https://bugs.chromium.org/p/chromedriver/issues/detail?id=4322问题根因:生肉翻译下来大致解

php - [OSX][PHP 5.5.5] 忽略 --with-config-file-scan-dir

我将OSXLion升级到Mavericks,并决定将我的PHP版本升级到当时的最新版本(5.5.5)我设法使所有依赖项、配置、制作和安装正常工作,但是在运行它之后,它忽略了扫描目录并使用了Apple最初设置的目录。苹果原创php-config显示--configure-options[...--with-config-file-scan-dir=/Library/Server/Web/Config/php...]php-i显示phpinfo()PHPVersion=>5.4.17System=>Darwinaeris-mba13.0.0DarwinKernelVersion13.0.0