草庐IT

python - Pyspark 从数据框中的列中删除空值

我的数据框如下所示ID,FirstName,LastName1,Navee,Srikanth2,,Srikanth3,Naveen,现在我的问题陈述是我必须删除行号2,因为名字为空。我正在使用下面的pyspark脚本join_Df1=Name.filter(Name.col(FirstName).isnotnull()).show()我得到的错误是File"D:\0\NameValidation.py",line13,injoin_Df1=filter(Name.FirstName.isnotnull()).show()TypeError:'Column'objectisnotcall

hadoop - 如何使用 Pyspark 从 Hive Context 调用用 Java 编写的 Hive UDF

我在配置单元中使用getLastProcessedVal2UDF从表中获取最新的分区。这个UDF是用java编写的。我想通过配置单元上下文使用来自pyspark的相同UDF。dfsql_sel_nxt_batch_id_ini=sqlContext.sql('''selectl4_xxxx_seee.**getLastProcessedVal2**("/data/l4/work/hive/l4__stge/proctl_stg","APP_AMLMKTE_L1","L1_AMLMKT_MDWE","TRE_EXTION","2.1")''')错误:ERRORexec.FunctionR

python - Pig//Spark 作业看不到 Python 模块

我的hadoop集群有一个反复出现的问题,偶尔功能代码会停止查看位于正确位置的python模块。我正在寻找可能遇到过相同问题的人的提示。当我第一次开始编程并且代码停止工作时,我在这里问了一个关于SO的问题,有人告诉我去sleep,早上它应该可以工作,或者其他一些“你是个傻瓜,你一定有改变了一些东西”之类的评论。我多次运行该代码,它有效,我去sleep了,早上我尝试再次运行它,但它失败了。有时我使用CTRL+C终止作业,有时我使用CTRL+Z。但这只会占用资源,除此之外不会引起任何其他问题——代码仍在运行。我还没有在代码运行后立即看到这个问题。这通常发生在第二天早上,当我在10小时前离开

hadoop - 如何从 pyspark 连接到 Teradata?

我正在尝试从Pyspark连接到Teradata和DB2。我正在使用以下jar:tdgssconfig-15.10.00.14.jarteradata-connector-1.4.1.jarterajdbc4-15.10.00.14.jar&db2jcc4.jar连接字符串:df1=sqlContext.load(source="jdbc",driver="com.teradata.jdbc.TeraDriver",url=db_url,user="db_user",TMODE="TERA",password="db_pwd",dbtable="U114473.EMPLOYEE")df

python - 尝试使用 pyspark 从 S3 获取数据时出现空指针异常

当我尝试使用pyspark从S3获取数据时,出现空指针异常。我正在使用hadoop2.4运行spark1.6.1。我尝试同时使用s3n和s3a。也尝试通过以下方式设置配置:hadoopConf=sc._jsc.hadoopConfiguration()hadoopConf.set("fs.s3.impl","org.apache.hadoop.fs.s3native.NativeS3FileSystem")hadoopConf.set("fs.s3n.awsAccessKeyId","aws-key")hadoopConf.set("fs.s3n.awsSecretAccessKey"

hadoop - 如何从 `yarn application -list` 访问 Tracking-URL?

我想查看我在yarn中看到的某个作业的yarnwebUI。当我做yarnapplication-list我可以看到跟踪URL.所以,我在chrome中导航到那个页面,它给了我这样的错误:The172.12.15.181pageisn'tworking.172.12.15.181didn'tsendanydata.我显然已经通过ssh进入了应该允许我看到它的机器。另外,这份工作肯定在status=RUNNING在yarn中。那么,是什么阻止我在这个url上看到yarnweb用户界面?我这样做正确吗?谢谢。 最佳答案 在yarnappl

scala - Spark-Scala HBase 表创建失败(MetaException(消息 :file:/user/hive/warehouse/src is not a directory or unable to create one)

我的VM中运行着hortonworks沙盒。我已经完成了所有的hive-site.xml配置并放置在Spark/conf文件中。我可以使用PySpark访问HBase并创建/更新表,但是当我在Scala中执行相同的实现时,会出现以下错误:FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.DDLTask.MetaException(message:file:/user/hive/warehouse/srcisnotadirectoryorunabletocreateone)我也更改了对“hive/war

hadoop - pyspark.sql.utils.AnalysisException : u'Path does not exist

我正在使用标准的hdfs运行amazonemr的spark作业,而不是S3来存储我的文件。我在hdfs://user/hive/warehouse/中有一个配置单元表,但在运行我的spark作业时找不到它。我配置了spark属性spark.sql.warehouse.dir以反射(reflect)我的hdfs目录的属性,而yarn日志确实显示:17/03/2819:54:05INFOSharedState:Warehousepathis'hdfs://user/hive/warehouse/'.稍后在日志中说(页面末尾的完整日志):LogType:stdoutLogUploadTime

hadoop - Pyspark Mac NativeCodeLoader : Unable to load native-hadoop library for your platform. .. 在适用的情况下使用内置 java 类

这会阻止PySpark在JupyterNotebook中正常运行。我知道原生hadoop库仅在*nix平台上受支持。该库不适用于Cygwin或MacOSX平台。我怎样才能正确安装PySpark以在我的Jupyter笔记本中运行 最佳答案 下载hadoop二进制文件(link)并将其放在您的主目录中(您可以根据需要选择不同的hadoop版本并相应地更改后续步骤)使用以下命令将文件夹解压缩到您的主目录中。tar-zxvfhadoop_file_name现在将exportHADOOP_HOME=~/hadoop-2.8.0添加到您的.ba

hadoop 作业与 pyspark 和 oozie 陷入僵局

我正在尝试使用oozie在yarn上运行pyspark,提交工作流后,hadoop作业队列中有2个作业,一个是oozie作业,其应用程序类型为“mapreduce”,另一个作业被触发通过前一个,应用程序类型为“Spark”,当第一个作业正在运行时,第二个作业仍处于“已接受”状态。问题来了,而第一个作业正在等待第二个作业完成继续,第二个是等待第一个完成运行,我可能陷入死锁,我怎么能摆脱这个麻烦,应用程序类型为“mapreduce”的hadoop作业是否与不同应用程序的其他作业并行运行类型?感谢任何建议,谢谢! 最佳答案 请将属性值检查