草庐IT

mongodb-cluster

全部标签

mongodb - Spark with Mongo DB : java. lang.IncompatibleClassChangeError:实现类

我正在尝试使用Scala将示例MongoDB集合加载到Spark,然后将RDD保存到文本文件。以下是我的代码:valsc=newSparkContext(conf)valmongoConfig=newConfiguration()mongoConfig.set("mongo.input.uri","mongodb://localhost:27017/myDB.myCollectionData")valsparkConf=newSparkConf()valdocuments=sc.newAPIHadoopRDD(mongoConfig,//ConfigurationclassOf[Mon

mongodb - 无法在 HDP 的 Hive 查询中使用 mongo-hadoop 连接器

我是hadoop的新手。我已经安装了hortonworks沙箱2.1。我正在尝试使用HiveUI执行Hive脚本。我想访问Hive中的mongo集合。我为此使用了以下查询:CREATETABLEindividuals(idINT,nameSTRING,ageINT,citySTRING,hobbySTRING)STOREDBY'com.mongodb.hadoop.hive.MongoStorageHandler'WITHSERDEPROPERTIES('mongo.columns.mapping'='{"id":"_id"}')TBLPROPERTIES('mongo.uri'='m

mongodb - 限制选择查询批量大小

我正在使用MongoToolrunner将数据从mongoDB导入到Hadoopmapreduce作业。由于数据的大小,我收到OutOfMemoryError。所以我想限制我以批量方式获取的记录数。MongoConfigUtil.setQuery()只能设置查询但我不能设置大小来限制获取的记录数。我正在寻找的是类似MongoConfigUtil.setBatchSize()接着MongoConfigUtil.getNextBatch()类似的东西。请提出建议。 最佳答案 您可以使用类MongoInputSplit的setLimit方

hadoop - 在 Hadoop 2.7.2(CentOS 7) Cluster 中,Datanode 启动但没有连接到 namenode

我安装了一个三节点hadoop集群。master和slave节点单独启动,但datanode没有显示在namenodewebUI中。datanode的日志文件显示以下错误:2016-06-1821:23:53,980INFOorg.apache.hadoop.ipc.Client:Retryingconnecttoserver:namenode/192.168.1.100:9000.Alreadytried0time(s);retrypolicyisRetryUpToMaximumCountWithFixedSleep(maxRetries=10,sleepTime=1000MILLI

mongodb - 带有 $date 的 mongo.input.query 不过滤输入到 hadoop

我有一个分片输入集合,我想在将其发送到我的hadoop集群以进行mapreduce计算之前对其进行过滤。我的$hadoopjar-命令中有这个参数mongo.input.query='{_id.uuid:"device-964693"}'并且有效。输出不会mapreduce任何不满足此查询的数据。但这不起作用:mongo.input.query='{_id.day:{\\$lt:{\\$date:1388620740000}}}'没有数据作为输出产生。1388620740000表示日期WedJan01201423:59:00GMT+0000(GMT)。该设置使用的是hadoop2.2、

【软件开发/设计】分布式架构中的组件(如Kafka、MongoDB和Nginx)如何进行容器化部署

【软件开发/设计】分布式架构中的组件(如Kafka、MongoDB和Nginx)如何进行容器化部署方式一容器化部署的一般步骤Nginx、MongoDB、Kafka容器化部署示例1.Nginx2.MongoDB3.Kafka容器化部署的优势方式二1.Nginx部署创建Deployment创建ServiceNginx和ConfigMap总结应用配置2.MongoDB部署创建StatefulSet创建ServiceMongoDB和ConfigMap应用配置3.Kafka部署使用Helm1.验证Kafka安装2.查看Helm安装的说明3.连接到Kafka4.使用Kafka5.Kafka客户端配置6.监

hadoop - 安装 Spark Cluster,Hive 的问题

我正在尝试启动Spark/Shark集群,但一直遇到同样的问题。我已按照https://github.com/amplab/shark/wiki/Running-Shark-on-a-Cluster上的说明进行操作并按照说明处理Hive。我认为SharkDriver正在使用另一个版本的Hadoopjar,但不确定原因。这是详细信息,任何帮助都会很棒。星火/鲨鱼0.9.0ApacheHadoop2.3.0Amplabshive0.11斯卡拉2.10.3Java7我已经安装了所有东西,但我收到了一些弃用警告,然后是一个异常:14/03/1411:24:47信息Configuration.d

python - 在 Pyspark-Cluster 模式下的工作节点上安装外部库

我正在为NLP处理等开发pyspark。我正在使用TextBlobPython库。通常,在独立模式下,安装外部Python库很容易。在集群模式下,我面临着在工作节点上远程安装这些库的问题。我无法访问每台工作机器以在Python路径中安装这些库。我尝试使用Sparkcontextpyfiles选项传送.zip文件...但问题是这些Python包需要安装在工作机器上。是否有不同的方法可以使这个lib-Textblob在Python路径中可用? 最佳答案 ItriedtouseSparkcontextpyfilesoptiontoship

java - 使用 hadoop reducer 在将批量写入操作写入 mongodb 时检查重复记录

我正在使用hadoopmap-reduce来处理XML文件。我直接将JSON数据存储到mongodb中。如何实现在执行BulkWriteOperation之前只将不重复的记录存储到数据库中?重复记录标准将基于产品图片和产品名称,我不想使用吗啡层,我们可以在其中为类成员分配索引.这是我的reducer类:publicclassXMLReducerextendsReducer{privatestaticfinalLoggerLOGGER=Logger.getLogger(XMLReducer.class);protectedvoidreduce(Textkey,Iterablevalues

mongodb - mongo-hadoop。不处理 mongodb 文档删除

我想同步mongodb和hadoop,但是当我从mongodb中删除文件时,这个文件在hadoop中一定不能被删除。我尝试使用mongo-hadoop和hive。这是配置单元查询:CREATEEXTERNALTABLESubComponentSubmission(idSTRING,statusINT,providerIdSTRING,dateCreatedTIMESTAMP,subComponentIdSTRING,packageNameSTRING)STOREDBY'com.mongodb.hadoop.hive.MongoStorageHandler'WITHSERDEPROPER