草庐IT

spark_libs

全部标签

hadoop - 如何在 Spark 引擎上运行 Mahout 作业?

目前我正在使用MahoutRowSimilarityJob进行一些文档相似性分析。这可以通过从控制台运行命令“mahoutrowsimilarity...”轻松完成。但是我注意到这个作业也支持在Spark引擎上运行。我想知道如何在Spark引擎上运行这个作业。 最佳答案 您可以在spark中使用MLlib替代mahout。MLlib中的所有库都以分布式模式处理(Hadoop中的Map-reduce)。在Mahout0.10中,使用spark提供作业执行。更多细节链接http://mahout.apache.org/users/spa

scala - Spark utf 8错误,非英文数据变成 `??????????`

我们数据中的一个字段是非英语语言(泰语)。我们可以将数据加载到HDFS中,运行时系统会正确显示非英文字段:hadoopfs-cat/datafile.txt但是,当我们使用Spark加载显示数据时,所有非英文数据都显示????????????????我们在运行Spark时添加了以下内容:System.setProperty("file.encoding","UTF-8")有没有人看过这个?在Spark中使用非英文数据需要做什么?我们在Ubuntu14.04上运行Spark1.3.0、Scala2.10.4。我们运行测试的命令是:valtextFile=sc.textFile(input

scala - 如何在 hadoop 上使用 Spark 启动 Jar 文件

我正在安装hadoop的GoogleCloudPlatform上做一个项目。我在scala中编写了一个程序,并使用sbt的汇编指令创建了一个可执行JAR现在我必须上传并在我的平台上运行它。我尝试使用命令spark-submit--class"Hi"provaciao.jar但即使它在sparkstandalone上本地工作,我也会收到错误消息。我用的是spark的1.1.0版本,hadoop的2.4版本这是我的错误日志marooned91_gmail_com@hadoop-m-on8g:/home/hadoop/spark-install/bin$spark-submit--class

csv - 使用spark访问放置在hdfs中的csv文件

我已经使用hadoop-put命令将一个csv文件放入hdfs文件系统。我现在需要使用pysparkcsv访问csv文件.它的格式类似于`plaintext_rdd=sc.textFile('hdfs://x.x.x.x/blah.csv')`我是hdfs的新手。如何找到要放在hdfs://x.x.x.x中的地址?这是我输入时的输出hduser@remus:~$hdfsdfs-ls/inputFound1items-rw-r--r--1hdusersupergroup1582015-06-1214:13/input/test.csv感谢任何帮助。 最佳答案

hadoop - Hadoop 可以访问 S3 文件,但 Spark 不能

我在一台EC2机器上运行Spark1.4和Hadoop2.6。我配置了HADOOP_CLASSPATH和core-site.xml以访问我的S3文件。虽然Hadoop能够访问我存储桶中的文件,但spark-shell失败并抛出以下错误:java.lang.RuntimeException:java.lang.ClassNotFoundException:Classorg.apache.hadoop.fs.s3native.NativeS3FileSystemnotfound我尝试将awsjar添加到类路径中,但没有任何帮助。有人知道这可能来自哪里吗?谢谢!

hadoop - 如何在资源有限的笔记本电脑上安装 pyspark 和 spark 以供学习?

我有一台配备6GBRAM的Windows7笔记本电脑。仅出于学习目的,在此笔记本电脑上安装pyspark和spark的RAM/资源效率最高的方法是什么。我不想处理实际的大数据,但小数据集是理想的,因为这通常只是为了学习pyspark和spark。我更喜欢最新版本的Spark。仅供引用:我没有安装hadoop。谢谢 最佳答案 你基本上有三个选择:从源代码构建一切安装Virtualbox并使用ClouderaQuickstart等预构建的VM安装Docker并找到合适的容器当您选择从源代码构建时,让一切都启动并运行可能会很痛苦。你必须安

hadoop - 将kafka的Spark批量流式传输到单个文件中

我正在使用批处理流(maxRatePerPartition10.000)从Kafka流式传输数据。因此,在每批处理中,我处理10.000条kafka消息。在这个批处理运行中,我通过从rdd中创建一个数据帧来处理每条消息。处理后,我使用以下方法将每个处理过的记录保存到同一个文件:dataFrame.write.mode(SaveMode.append)。因此它将所有消息附加到同一个文件。只要它在一个批处理运行中运行就可以。但是在执行下一个批处理运行(处理下10.000条消息)后,它会为下一个10.000条消息创建一个新文件。现在的问题是:每个文件(block)保留文件系统的50mb,但只

hadoop - 带有序列文件的 Spark RDD take()

看起来RDD.take()只是在序列文件的支持下重复读取的最后一个元素。例如:valrdd=sc.sequenceFile("records.seq",classOf[LongWritable],classOf[RecordWritable])valrecords:Array[(LongWritable,RecordWritable)]=rdd.take(5)System.out.println(records.map(_._2.toString).mkString("\n"))输出:Record(3.1,2.5)Record(3.1,2.5)Record(3.1,2.5)Record

hadoop - 给定 --driver-class-path 时,spark 找不到 spark-class-launcher-output 文件

我正在尝试让spark与aws一起玩得开心。在Windows环境中工作。无论我尝试过哪些选项,都永远找不到NativeS3类。目前,如果我使用:spark-shell--packagescom.amazonaws:aws-java-sdk-s3:1.10.38,com.amazonaws:aws-java-sdk-core:1.10.38,org.apache。hadoop:hadoop-aws:2.7.1作为我的命令,然后我将下载文件并可以使用s3,但是感觉很老套,每次下载它们都不理想。在另一个人的帮助下,我一直在尝试其他选项,结果是:>spark-shell--driver-cla

python - 从发送到 spark-submit 的外部 __main__ 文件修改 SparkContext

我正在尝试打包python依赖项,以便使用spark-submit发送到hadoop集群,我希望尽可能以DRYest方式执行此操作。我希望我的my_spark_app.py看起来像这样:frompysparkimportSparkContext,SparkConfconf=SparkConf().setAppName('MyApp').setMaster('yarn-client')sc=SparkContext(conf=conf)sc.addPyFile('/path/to/dependencies.py')fromdependenciesimportDependencyManag