草庐IT

local_variable_defined

全部标签

variables - 获取当前日期并将其设置为变量,以便将其用作 HIVE 中的表名

我想以YYMMDD的形式获取当前日期,然后将其设置为变量以便将其用作表名。这是我的代码:setdates=date+%Y-%m-%d;CREATEEXTERNALTABLEIFNOTEXISTSdates(idSTRING,regionSTRING,citySTRING)但是这个方法不行,因为好像赋值不对。有什么想法吗? 最佳答案 Hive不计算变量,它按原样替换它们,在您的情况下,它将正是这个字符串'date+%Y-%m-%d'。也不可能使用像current_date()这样的UDF来代替DDL中的表名。解决方案是在shell中计

hadoop - 执行 Pig 脚本 -x local script.pig 和 just script.pig 之间的区别

目前我正在执行我的脚本:/usr/bin/pig/somepath/myscript.pig出于某种原因,pig总是卡在这个阶段。2014-01-2816:49:31,328[main]INFOorg.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher-0%complete如果我用`/usr/bin/pig-xlocal/somepath/myscript.pig`出于某种原因提示路径:Input(s):Failedtoreaddatafrom"file:///path_from_root

hadoop - "LOAD DATA LOCAL INPATH"如何到远程hiveserver

我想使用“LOADDATALOCALINPATH..”在本地机器上导入文件但是,我不能导入$beeline-ujdbc:hive2://example:10000-e"LOADDATALOCALINPATH'tmp/file_20161024.dat'OVERWRITEINTOTABLEsome_tablePARTITION(dt=20161024);"Connectingtojdbc:hive2://example:10000Connectedto:ApacheHive(version2.1.0)Driver:HiveJDBC(version1.2.1)Transactionisol

java - Jobtracker API 错误 - 调用 localhost/127.0.0.1 :50030 failed on local exception: java. io.EOFException

我正在尝试使用Java连接我的jobtracker。下面显示的是我正在尝试执行的程序publicstaticvoidmain(Stringargs[])throwsIOException{Configurationconf=newConfiguration();conf.addResource(newPath("/home/user/hadoop-1.0.3/conf/core-site.xml"));conf.addResource(newPath("/home/user/hadoop-1.0.3/conf/hdfs-site.xml"));conf.addResource(newP

java - Apache Spark :-Nullpointer Exception on broadcast variables (YARN Cluster mode)

我有一个简单的spark应用程序,我试图在YARN集群上广播一个String类型的变量。但是每次我尝试访问广播变量值时,我都会在任务中得到空值。如果你们可以提出建议,那将非常有帮助,我在这里做错了什么。我的代码如下:-publicclassTestAppimplementsSerializable{staticBroadcastmongoConnectionString;publicstaticvoidmain(String[]args){StringmongoBaseURL=args[0];SparkConfsparkConf=newSparkConf().setAppName(Co

hadoop - 在 Hive 中, "Load data local inpath"是覆盖现有数据还是追加?

我希望在cron上运行到Hive的导入,并且希望只使用“将数据本地输入路径‘/tmp/data/x’加载到表X”到表中就足够了。后续命令会覆盖表中已有的内容吗?还是会追加? 最佳答案 本站http://wiki.apache.org/hadoop/Hive/LanguageManual在处理Hive时是你的friend。:)解决将数据加载到Hive的页面是http://wiki.apache.org/hadoop/Hive/LanguageManual/DML该页面指出iftheOVERWRITEkeywordisusedthent

hadoop - PIG local和mapreduce模式的区别

在本地运行PIG脚本和在mapreduce上运行的实际区别是什么?我了解mapreduce模式是在安装了hdfs的集群上运行它。这是否意味着本地模式不需要HDFS,因此甚至不会触发mapreduce作业?有什么区别,你什么时候和另一个? 最佳答案 本地模式将构建一个模拟的mapreduce作业,该作业从磁盘上的本地文件运行。理论上相当于MapReduce,但它不是“真正的”mr工作。从用户的角度来看,您不应该能够分辨出差异。本地模式非常适合开发。 关于hadoop-PIGlocal和ma

hadoop - hdfs - ls : Failed on local exception: com. google.protobuf.InvalidProtocolBufferException:

我正在尝试使用下面的命令在hdfs中列出我的目录:ubuntu@ubuntu:~$hadoopfs-lshdfs://127.0.0.1:50075/ls:Failedonlocalexception:com.google.protobuf.InvalidProtocolBufferException:Protocolmessageend-grouptagdidnotmatchexpectedtag.;HostDetails:localhostis:"ubuntu/127.0.0.1";destinationhostis:"ubuntu":50075;这是我的/etc/hosts文件1

hadoop - Spark - java IOException :Failed to create local dir in/tmp/blockmgr*

我试图运行一个长时间运行的Spark作业。执行几个小时后,出现以下异常:Causedby:java.io.IOException:Failedtocreatelocaldirin/tmp/blockmgr-bb765fd4-361f-4ee4-a6ef-adc547d8d838/28试图通过检查来绕过它:/tmp目录中的权限问题。spark服务器未以root身份运行。但是/tmp目录应该对所有用户都是可写的。/tmp目录有足够的空间。 最佳答案 假设您正在使用多个节点,您需要检查参与spark操作的每个节点(master/drive

PHP undefined variable 奇怪

这是我的脚本,它验证username是否已被占用。while($row=mysql_fetch_array($result)){$usname=$row['Username'];}if($usname!=$uname){}else{echo"Usernametaken!";die;}效果很好。如果一个username被占用,它不会将其添加到数据库中,如果它无人认领则会添加。但我总是遇到这个恼人的错误:Notice:Undefinedvariable:usnameinC:\xampp\htdocs\insert.phponline29我定义了那个变量!帮助...