草庐IT

Mongo-Spark

全部标签

hadoop - Hadoop-3.0.0 与旧版本的 Hive、Pig、Sqoop 和 Spark 的兼容性如何

我们目前在10节点集群上使用hadoop-2.8.0,并计划升级到最新的hadoop-3.0.0。我想知道如果我们将hadoop-3.0.0与旧版本的Spark和其他组件(如Hive、Pig和Sqoop)一起使用,是否会出现任何问题。 最佳答案 最新的Hive版本不支持Hadoop3.0,看来以后Hive可能会建立在Spark或者其他计算引擎上。 关于hadoop-Hadoop-3.0.0与旧版本的Hive、Pig、Sqoop和Spark的兼容性如何,我们在StackOverflow上找

hadoop - 实例化 HiveSessionState 时的 Spark2 数据加载问题

在集群模式下使用Spark2读取数据期间出现以下问题。“java.lang.IllegalArgumentException:实例化‘org.apache.spark.sql.hive.HiveSessionState’时出错:”在谷歌搜索了很多之后,我对这个问题一无所知。请帮忙。我运行的代码spark=SparkSession.builder.getOrCreate();vallines:Dataset[String]=spark.read.textFile("/data/sample/abc.csv").异常来自上面的行。异常全栈跟踪:ERRORyarn.ApplicationMa

hadoop - 如何在写入 hive orc 表时合并 spark 中的小文件

我正在从s3读取csv文件并作为orc写入配置单元表。在写入时,它正在写入很多小文件。我需要合并所有这些文件。我设置了以下属性:spark.sql("SEThive.merge.sparkfiles=true")spark.sql("SEThive.merge.mapredfiles=true")spark.sql("SEThive.merge.mapfiles=true")spark.sql("sethive.merge.smallfiles.avgsize=128000000")spark.sql("sethive.merge.size.per.task=128000000")除了

mongodb - 带有 $date 的 mongo.input.query 不过滤输入到 hadoop

我有一个分片输入集合,我想在将其发送到我的hadoop集群以进行mapreduce计算之前对其进行过滤。我的$hadoopjar-命令中有这个参数mongo.input.query='{_id.uuid:"device-964693"}'并且有效。输出不会mapreduce任何不满足此查询的数据。但这不起作用:mongo.input.query='{_id.day:{\\$lt:{\\$date:1388620740000}}}'没有数据作为输出产生。1388620740000表示日期WedJan01201423:59:00GMT+0000(GMT)。该设置使用的是hadoop2.2、

hadoop - Spark 独立模式 : Worker not starting properly in cloudera

我是spark的新手,在使用cloudera管理器中提供的包裹安装spark之后。我已经配置了以下来自clouderaenterprise的链接中所示的文件:http://www.cloudera.com/content/cloudera-content/cloudera-docs/CM4Ent/4.8.1/Cloudera-Manager-Installation-Guide/cmig_spark_installation_standalone.html完成此设置后,我通过运行/opt/cloudera/parcels/SPARK/lib/spark/sbin/start-all.s

hadoop - 安装 Spark Cluster,Hive 的问题

我正在尝试启动Spark/Shark集群,但一直遇到同样的问题。我已按照https://github.com/amplab/shark/wiki/Running-Shark-on-a-Cluster上的说明进行操作并按照说明处理Hive。我认为SharkDriver正在使用另一个版本的Hadoopjar,但不确定原因。这是详细信息,任何帮助都会很棒。星火/鲨鱼0.9.0ApacheHadoop2.3.0Amplabshive0.11斯卡拉2.10.3Java7我已经安装了所有东西,但我收到了一些弃用警告,然后是一个异常:14/03/1411:24:47信息Configuration.d

exception - AWS EC2 上的 Spark 在开始我的工作时抛出 EOFException

我正在尝试在我使用他们提供的Spark-ec2脚本创建的Spark集群上运行我的Spark作业。我能够运行SparkPi示例,但每当我运行我的工作时,我都会收到此异常:Exceptioninthread"main"java.io.IOException:Calltoec2-XXXXXXXXXX.compute-1.amazonaws.com/10.XXX.YYY.ZZZZ:9000failedonlocalexception:java.io.EOFExceptionatorg.apache.hadoop.ipc.Client.wrapException(Client.java:1107

scala - Spark - 使用 BytesWritable 类型按键排序

我想使用hadoop示例RandomWriter进行基准测试并生成文件。键和值的类型都是BytesWritable。那么我该如何使用Spark对这个文件进行排序呢?看来我不能直接调用sortByKey()。 最佳答案 您要做的是在RDD中使用.sortBy方法。,正确的?这就是为什么您找不到OrderedRDDFunctions的.sortByKey方法的原因。正如@JustinPihony指出的那样,这需要对key进行隐式排序,在本例中(AFAIK)将定义为:implicitvalrandomWriterOrdering=newO

hadoop - 带有自定义 Hadoop 文件系统的 Spark

我已经有一个带有Yarn的集群,配置为使用core-site.xml中的自定义Hadoop文件系统:fs.custom.implpackage.of.custom.class.CustomFileSystem我想在这个Yarn集群上运行一个Spark作业,它从这个CustomFilesystem读取一个输入RDD:finalJavaPairRDDfiles=sparkContext.wholeTextFiles("custom://path/to/directory");有什么方法可以在不重新配置Spark的情况下做到这一点?即,我能否将Spark指向现有的core-site.xml,

scala - Apache-Spark 内部作业调度

我在Spark中发现了这个功能,它允许您在spark上下文中安排不同的任务。我想在一个程序中实现这个特性,在这个程序中我映射我的输入RDD(fromatextsource)到一个键值RDD[K,V]随后生成一个复合键值RDD[(K1,K2),V]和一个包含一些特定值的过滤RDD。进一步的管道涉及在RDD和join操作上从MLlib调用一些统计方法,然后将结果外部化到磁盘。我正在尝试了解spark的内部公平调度程序将如何处理这些操作。我尝试阅读作业调度文档,但对pools、users和tasks的概念感到更加困惑。pools到底是什么,它们是特定的'tasks'可以组合在一起还是它们是l