草庐IT

pivot_df

全部标签

linux - Azure df 中的磁盘空间和使用情况显示已满但 du 没有添加

我有一个安装了四个外部磁盘的azure虚拟机。df-hFilesystemSizeUsedAvailUse%Mountedon/dev/sda129G28G0100%/none4.0K04.0K0%/sys/fs/cgroupudev1.7G12K1.7G1%/devtmpfs345M460K344M1%/runnone5.0M05.0M0%/run/locknone1.7G01.7G0%/run/shmnone100M0100M0%/run/usernone64K064K0%/etc/network/interfaces.dynamic.d/dev/sdb1133G31G96G25%

hadoop - pig : Pivoting & Sum 3 relations

我有3种不同的关系,如下所述,我可以使用UDF获取输出,但在PIG中寻找实现。在论坛中提到了其他东西,但没有对这个问题有具体的想法。过程:FN1,10FN2,20FN3,23FN4,25FN5,15FN7,40FN10,56拒绝:FN1,12FN2,13FN3,33FN6,60FN8,23FN9,44FN10,4所有FN:FN1FN2FN3FN4FN5FN6FN7FN8FN9FN10所需的输出是:FN1,10,12,22FN2,20,13,33FN3,23,33,56FN4,25,0,25FN5,15,0,15FN6,0,60,60FN7,40,0,40FN8,0,23,23FN9,0

hadoop - 从非 hdfs 源读取时 namenode.LeaseExpiredException 而 df.write.parquet

我有一个在yarn集群上运行并使用databricks库将csv转换为parquet的spark代码。当csv源是hdfs时它工作正常。但是当csv源不是hdfs时(通常是这种情况),我遇到了这个异常。它不应该发生,因为相同的代码适用于hdfscsv源。问题的完整链接:https://issues.apache.org/jira/browse/SPARK-19344 最佳答案 如评论中所述。当文件位于驱动程序节点上,但节点无法访问时,读取将失败。当使用读取输入文件时(例如spark2.0中的spark.read),所有执行程序节点都

scala - 从spark中的json模式动态生成df.select语句

我正在从宽字符串中选择列,其偏移量如下所示df2=df.select(substring(col("a"),4,6).as("c")).cast(IntegerType)但是我必须从字符串中提取1000列,如果我可以提供诸如列名、数据类型、宽度、起始位置和结束位置等详细信息,那么如何使用jsonsparkstruct模式生成select语句。另外,我不得不将一些列转换为intergertype或longtype,但是我观察到这些字段被像111111111将在转换为integertype时转换为1 最佳答案 如果可以使用configf

scala - 如何连接到 Pivotal HD(来自 Spark)?

我想知道将Spark应用程序连接到PivotalHD(一种Hadoop实现)的方法。使用Spark连接到它的最佳方式是什么?valjdbcDataFrame=sqlContext.read.format("jdbc").options(Map("url"->"jdbc:postgresql:dbserver","dbtable"->"schema.tablename")).load() 最佳答案 我看到您的问题已被编辑,但我会尽力回答您的所有问题。PivotalHD(以前称为GreenplumHD)是一个Hadoop发行版,因此您应

python - 将 PySpark DF 写入专用格式的文件

我正在使用PySpark2.1,我需要想出一种方法将我的数据帧写入专门格式的.txt文件;所以不是典型的json或csv,而是CTF格式(对于CNTK)。该文件不能有额外的括号或逗号等。它遵循以下形式:|labelval|featuresvalvalval...val|labelval|featuresvalvalval...val显示这一点的一些代码可能如下所示:l=[('Ankit',25),('Jalfaizy',22),('saurabh',20),('Bala',26)]rdd=sc.parallelize(l)people=rdd.map(lambdax:Row(name=

hadoop - Pivotal HDB - 如何将数据从 HAWQ 内部/外部可读表推送到 Greenplum

我们有小型hadoop和Greenplum集群。当前的数据管道流程是:Externaltable>>hadoop-hawqexternalreadbaletable>>hawqinternaltable.输出:1.我们正在尝试使用GREENPLUM扩展数据管道。基本上是想将HAWQ内部表或外部可读表数据直接推送到greenplum中。原因是因为我们要编辑我们的文件。另外,HAWQ不支持更新和删除。是否有任何替代方法来处理或推送数据。请指导。2.如何使用gphdfs协议(protocol)通过GPDB外部表访问HDFS数据提前致谢! 最佳答案

Oracle 到 HBase : Pivot

我正在从Oracle迁移到HBase,在特定情况下需要一些帮助。我使用Sqoop导入到HBase的数据结构是这样的:YEARMONTHAMOUNT2010jan1002010fev2002011jan502011fev100现在我需要以这种结构获取这些数据:YEARJANFEV2010100200201150100有办法吗?怎么办?非常感谢!路易斯 最佳答案 您可以使用查询选项从查询而不是表中导入。然后您可以使用数据透视语法查询数据。类似的东西:sqoopimport\--query'select*from(selectyear,m

apache-spark - PySpark:使用具有 1000 个字段但具有可变列数的行的模式创建 RDD->DF->Parquet

我正在尝试读取一个ElasticSearch索引,它有数百万个文档,每个文档都有可变数量的字段。我有一个模式,其中有1000个字段,每个字段都有自己的名称和类型。现在,当我通过ES-Hadoop连接器创建一个RDD并稍后通过指定模式转换为一个DataFrame时,它没有说-Inputrowdoesn'thaveexpectednumberofvaluesrequiredbytheschema我有几个问题。1.是否有可能有一个RDD/DF的行包含可变数量的字段?如果不是,除了为每列中缺失的字段添加空值外,还有什么替代方法?我看到默认情况下Spark将所有内容转换为StringType,因

scala - Spark 数据帧 : Pivot and Group based on columns

我有如下输入数据框,其中包含id、app和customer输入数据框+--------------------+-----+---------+|id|app|customer|+--------------------+-----+---------+|id1|fw|WM||id1|fw|CS||id2|fw|CS||id1|fe|WM||id3|bc|TR||id3|bc|WM|+--------------------+-----+---------+预期输出使用pivot和聚合-将应用值作为列名并将聚合的客户名称作为数据框中的列表预期的数据帧+-----------------