草庐IT

sample_dataframe

全部标签

Hadoop : sqoop : getting Unknown database 'sample' error even though database exist

我正在sqoop中进行基本尝试。我使用MySQL创建了一个数据库示例。我在“示例”数据库中创建了一个表customers,并向该表中插入了一些数据。在尝试使用sqoop将表导入hdfs时,我得到了Unknowndatabase'sample',即使数据库存在。使用的sqoop命令:sqoopimport--connect"jdbc:mysql://localhost:3306/sample"--usernameroot--password123456--tablecustomers--target-dirhdfs:/sqoop/customers2-m1但是这个命令显示表客户:sqoo

java - 使用 Spark Dataframe 的 Hive 分区中缺少日期前导零

我正在向SparkDataframe添加一个分区列。新列包含年月日。我的数据框中有一个时间戳列。DataFramedfPartition=df.withColumn("year",df.col("date").substr(0,4));dfPartition=dfPartition.withColumn("month",dfPartition.col("date").substr(6,2));dfPartition=dfPartition.withColumn("day",dfPartition.col("date").substr(9,2));当我输出数据帧时,我可以看到列的正确值,

python - 来自 Hive 查询的持久 PySpark Dataframe

我正在从Hive表中获取一些数据:df=sqlContext.sql('selectshubiru,datefromthebigtablebtwherebt.num>10')df.show()#herethequeryisprocessedandtheresultsshown而且一切正常。现在我想对df进行操作,但是每次我对df进行操作时,它都会再次运行针对Hive的查询:importpyspark.sql.functionsasfuncfromdatetimeimportdatetimefrompyspark.sql.typesimportTimestampTypedt_udt=fu

scala - Spark DataFrame 并行性

下面是我使用ApacheSpark的用例1)我在HDFS上有大约2500个Parquet文件,文件大小因文件而异。2)我需要处理每个parquet文件并构建一个新的DataFrame并将一个新的DataFrame写入orc文件格式。3)我的Spark驱动程序是这样的。我正在迭代每个文件,处理单个Parquet文件,创建一个新的DataFrame并将一个新的DataFrame编写为ORC,下面是代码片段。valfs=FileSystem.get(newConfiguration())valparquetDFMap=fs.listStatus(newPath(inputFilePath))

python - Hadoop MapReduce(使用 Python)在 Pandas DataFrame 上启动 KeyError

我正在尝试使用MapReduce处理数据帧。我最初为映射器创建了脚本并尝试从本地终端运行它,它工作正常:映射器.pyimportsysimportstringimportpandasaspddf=pd.read_csv(sys.stdin)#cleaningrelevantfieldsdf['Time']=pd.to_datetime(df['Time'],unit='s').apply(lambdax:x.year)df['Summary']=df['Summary'].str.lower()df['Summary']=df['Summary'].str.replace('[{}]'

DataFrame转化为json的方法教程

网络上有好多的教程,讲得不太清楚和明白,我用实际的例子说明了一下内容,附档代码,方便理解和使用 DataFrame.to_json(path_or_buf=None, orient=None, date_format=None, double_precision=10, force_ascii=True, date_unit='ms', default_handler=None, lines=False, compression='infer', index=True, indent=None) [source]将对象转换为JSON字符串。注意:NaN和None将被转换为null, datet

scala - 将 RDD[String] 转换为 RDD[Row] 到 Dataframe Spark Scala

我正在读取一个有很多空格的文件,需要过滤掉空格。之后我们需要将其转换为数据框。下面的示例输入。2017123¦¦10¦running¦00000¦111¦-EXAMPLE我的解决方案是使用以下函数来解析所有空格并修剪文件。deftruncateRDD(fileName:String):RDD[String]={valexample=sc.textFile(fileName)example.map(lines=>lines.replaceAll("""[\t\p{Zs}]+""",""))}但是,我不确定如何将它放入数据框中。sc.textFile返回一个RDD[String]。我尝试了

hadoop - 将 Dataframe 存储到 spark 中的配置单元分区表

我正在尝试将从kafka主题传入的数据流存储到配置单元分区表中。我能够将dstream转换为数据帧并创建一个配置单元上下文。我的代码看起来像这样valhiveContext=newHiveContext(sc)hiveContext.setConf("hive.exec.dynamic.partition","true")hiveContext.setConf("hive.exec.dynamic.partition.mode","nonstrict")newdf.registerTempTable("temp")//newdfismydataframenewdf.write.mode

hadoop - Apache Spark : Apply existing mllib model on Incoming DStreams/DataFrames

使用ApacheSpark的mllib,我有一个存储在HDFS中的逻辑回归模型。此逻辑回归模型是根据来自某些传感器的历史数据进行训练的。我有另一个spark程序,它使用来自这些传感器的流数据。我希望能够使用预先存在的训练模型对传入的数据流进行预测。注意:我不希望我的模型被这些数据更新。要加载训练模型,我必须在我的代码中使用以下行:vallogisticModel=LogisticRegressionModel.load(sc,)sc:Spark上下文。但是,这个应用程序是一个流应用程序,因此已经有一个“StreamingContext”设置。现在,根据我的阅读,在同一个程序中有两个上下

hadoop - 如何从 sequenceFile 创建一个 spark DataFrame

我正在使用spark1.5。我想从HDFS中的文件创建一个dataframe。HDFS文件包含json数据,其中包含大量序列输入文件格式的字段。有没有办法在java中优雅地做到这一点?事先不知道json的结构/字段。我能够从序列文件中将输入作为RDD,如下所示:JavaPairRDDinputRDD=jsc.sequenceFile("s3n://key_id:secret_key@file/path",LongWritable.class,BytesWritable.class);JavaRDDevents=inputRDD.map(newFunction,String>(){pub