草庐IT

hadoop - 获取 emr-ddb-hadoop.jar 以连接 DynamoDB 和 EMR Spark

我有一个DynamoDB表,我需要连接到EMRSparkSQL以在该表上运行查询。我得到了带有发布标签emr-4.6.0和Spark1.6.1的EMRSparkCluster。我指的是文档:AnalyseDynamoDBDatawithSpark连接到主节点后,我运行命令:spark-shell--jars/usr/share/aws/emr/ddb/lib/emr-ddb-hadoop.jar它给出警告:Warning:Localjar/usr/share/aws/emr/ddb/lib/emr-ddb-hadoop.jardoesnotexist,skipping.稍后,当我使用导

hadoop - 由于空间问题导致 Spark 作业失败

我正在使用pyspark在Spark中编写批处理程序。以下是输入文件及其大小base-track.dat(3.9g)base-attribute-link.dat(18g)base-release.dat(543m)这些是每行一条记录的文本文件,每个字段由一个特殊字符分隔(引用代码)我正在对属性链接执行一些过滤操作并将它们分组并与其他表连接。我正在通过spark-submit将此程序提交到一个由Ambari管理的具有9个数据节点的Hadoop集群。每个数据节点包含140GB的RAM和3.5TB的磁盘空间。以下是我的pyspark代码importsysfrompysparkimportS

hadoop - Spark 1.0.2(也是 1.1.0)卡在一个分区上

我在apachespark中遇到了一个奇怪的问题,我将不胜感激。从hdfs读取数据(并进行一些从json到对象的转换)后,下一阶段(处理所述对象)在处理完2个分区(总共512个)后失败。这种情况发生在大型数据集上(我注意到的最小数据集约为700兆,但可能会更低,我还没有缩小范围)。编辑:700megs是tgz文件大小,未压缩是6gigs。编辑2:同样的事情发生在spark1.1.0我在一台32核、60演出的机器上使用本地主机运行spark,设置如下:spark.akka.timeout=200spark.shuffle.consolidateFiles=truespark.kryose

hadoop - 使用 hive/sql 和 spark 读取 json 键值

我正在尝试将此json文件读入配置单元表,顶级键即1,2..,此处不一致。{"1":"{\"time\":1421169633384,\"reading1\":130.875969,\"reading2\":227.138275}","2":"{\"time\":1421169646476,\"reading1\":131.240628,\"reading2\":226.810211}","position":0}我的hive表中只需要时间和读数1,2,因为列会忽略位置。我还可以结合使用配置单元查询和sparkmap-reduce代码。感谢您的帮助。更新,这是我正在尝试的valhqlC

python - Hive 和 Spark 窗口函数的数据洗牌

对已经在同一节点上的数据使用Hive窗口函数时,是否会发生数据混洗?具体在下面的例子中,在使用窗口函数之前,数据已经被'City'用Sparkrepartition()函数重新分区,这应该确保城市“A”的所有数据在同一节点上共同本地化(假设一个城市的数据可以适合一个节点)。df=sqlContext.createDataFrame([('A','1',2009,"data1"),('A','1',2015,"data2"),('A','22',2015,"data3"),('A','22',2016,"data4"),('BB','333',2014,"data5"),('BB','3

apache-spark - 通过 Spark 加载的表在 Hive 中无法访问

无法从Hive访问通过Spark(pyspark)创建的Hive表。df.write.format("orc").mode("overwrite").saveAsTable("db.table")从Hive访问时出错:Error:java.io.IOException:java.lang.IllegalArgumentException:bucketIdoutofrange:-1(state=,code=0)在Hive中成功创建表,并能够在spark中读回该表。表元数据可访问(在Hive中),表中的数据文件(在hdfs中)目录。Hive表的TBLPROPERTIES是:'bucketi

hadoop - Spark - 连接异常失败 : java.net.ConnectException - localhost

我在一台机器上运行hadoop和spark(Ubuntu14.04)。JPS命令给我以下输出hduser@ubuntu:~$jps4370HRegionServer6568Jps5555RunJar3744TaskTracker5341RunJar4120HQuorumPeer5790SparkSubmit3308DataNode4203HMaster3469SecondaryNameNode3079NameNode3587JobTracker我在HDFS中创建了一个简单的csv文件。文件的以下详细信息。hduser@ubuntu:~$hadoopfs-ls/user/hduser/f

scala - 获取 HDFS 中 Parquet 文件的大小,以便在 Scala 中使用 Spark 进行重新分区

我在HDFS上有许多parquet文件目录,每个目录包含几千个小的(大多数使用以下代码,我可以将本地parquet文件重新分区为更少的部分:valpqFile=sqlContext.read.parquet("file:/home/hadoop/data/file.parquet")pqFile.coalesce(4).write.save("file:/home/hadoop/data/fileSmaller.parquet")但我不知道如何通过Scala代码以编程方式获取HDFS上目录的大小,因此我无法计算出要传递给coalesce函数的分区数真实数据集。我该怎么做?或者在Spar

hadoop - 为 Spark 集群和 Cassandra 设置和配置 JanusGraph

我在一台机器上运行JanusGraph(0.1.0)和Spark(1.6.1)。我按照描述进行了配置here.使用SparkGraphComputer访问gremlin-console上的图形时,它始终为空。我在日志文件中找不到任何错误,它只是一个空图。是否有人将JanusGraph与Spark一起使用并且可以分享他的配置和属性?使用JanusGraph,我得到了预期的输出:gremlin>graph=JanusGraphFactory.open('conf/test.properties')==>standardjanusgraph[cassandrathrift:[127.0.0.

security - Spark 独立集群的身份验证

我有一个在远程服务器上运行的独立Spark集群,我是Spark的新手。默认情况下,似乎没有身份验证方案保护集群主机的(7077)端口。任何人都可以不受任何限制地简单地向集群提交自己的代码。Sparkdocumentation指出可以使用spark.authenticate.secret参数在独立部署模式下进行身份验证,但并未详细说明应该如何使用它。是否可以使用某种共享secret来阻止任何潜在的攻击者向集群提交任务?谁能解释一下具体是如何配置的? 最佳答案 启用身份验证支持有2个部分:为主人和所有奴隶设置secret在向集群提交作业