草庐IT

screepsmod-mongo

全部标签

java - 在 mongo 集合上使用时,Spring 数据版本注释不会递增

我正在使用带有mongodb的spring数据来存储图像等二进制数据我想维护一个版本字段附加到url以欺骗浏览器缓存图像。请参阅下面我的文档基类:importorg.springframework.data.annotation.Id;importorg.springframework.data.annotation.Version;importorg.springframework.data.mongodb.core.index.Indexed;publicabstractclassBaseDocument{@Id@Indexed(unique=true)protectedlongi

java - spring-data mongo 中不区分大小写的精确匹配

我正在使用带有mongo的spring数据和一个存储库。例如:@Query("{'userName':?0}")publicUserfindByUsername(Stringusername);我想让这个不区分大小写。我使用了以下查询:"{'userName':{$regex:?0,$options:'i'}}"这行得通,但它不仅匹配testUser,还匹配estUser。我也试过"{'userName':{$regex:^?0$,$options:'i'}}"但这无法解析查询,因为它试图在正则表达式中插入引号。com.mongodb.util.JSONParseException:(

java - 使用 Spring 定义 Mongo 模式验证

我想使用Spring-boot和JSONSchemavalidator选项在Mongo中定义一个集合(https://docs.mongodb.com/manual/core/schema-validation/#json-schema),我不想要JSR-303Bean验证(这不是有效答案SpringdatamongoDbnotnullannotationlikeSpringdataJpa),但在创建集合时定义一个选项,该选项使用CollectionInfos()显示在JSON中。例如,如果我定义一个Account模型类,例如:publicclassAccount{@Idprivate

java - Spring boot 2.0.5.RELEASE 和 mongo 4.0 连接问题

我正在关注Springwebsite上的使用MongoDB访问数据教程我安装了MongoDB服务器版本4作为服务当我使用客户端连接到它时,它的身份验证工作正常。我面临以下问题:MongoCommandException:Commandfailedwitherror18:'Authenticationfailed'我看到代码使用的是与服务器版本4不兼容的mongodb-driver-core-3.6.4.jar如何在不打乱项目的情况下只升级驱动?为什么他们使用spring-boot-starter-data-mongodb而不是mongodb-driver-sync?com.mongod

docker环境下mongo副本集的部署及异常修复

最近更换了办公地点。部署在本地docker环境里的mongo数据库不能使用了。原因是本地的ip地址变更。以前的mongo副本集的配置需要更新。处理完后,索性重新记录一下mongo副本集在docker中的部署流程。mongo的事务及副本集我们先了解一下什么是事务,事务是一组对数据库执行的操作,这些操作作为一个不可分割的工作单元。在MongoDB中,一个事务可以涉及多个文档和多个集合。例如一个订单的下单过程,涉及到订单的生成,商品库存变化等多个文档的变化。在服务端执行过程中,如果某一段代码产生了错误。不使用事务的话,可能会导致订单生成来,商品库存却不变的情况发生。而使用事务后,整个下单将会作为一个

mongodb - 在 Hadoop MapReduce(使用 Mongo Hadoop 连接器)之后,重复记录被写入 MongoDB

我们在AWSEMR上的Hadoop测试环境1个主节点2个从节点当我们提交一个小测试作业时,它会触发1个maptask。map任务完成后,将触发3个reduce任务。reduce任务完成后,我们的输出数据将写入Mongo集合。但是我们注意到,在某些情况下,输出中有重复的记录。这会导致我们的下游处理任务崩溃,因为它们不需要重复。我注意到的一件事是,其中一个reduce任务有时会被终止,然后由hadoop重新启动-如果它在将数据写入Mongo的过程中被终止,这会导致重复记录吗?有什么方法可以从日志中看出Mongohadoop连接器是否真的在向Mongo写入数据?有什么方法可以确保在提交给Mo

MongoDB 和 Spark : difference between mongo-hadoop and mongo-spark

mongo-hadoop和mongo-spark连接器有什么区别,pymongo是否只能与mango-hadoop一起使用?pymongo是否只能与mongo-hadoop一起使用? 最佳答案 MongoDBConnectorforHadoop是一个库,它允许MongoDB(或其数据格式的备份文件,BSON)用作HadoopMapReduce任务的输入源或输出目标。它旨在提供更大的灵active和性能,并使MongoDB中的数据与Hadoop生态系统的其他部分(包括以下部分)轻松集成:pigSparkmap化简Hadoop流媒体hi

mongodb - 如何使用 mongo-hadoop 从 Pig 上的 BSON 文件加载数组?

我正在尝试使用com.mongodb.hadoop.pig.BSONLoader(https://github.com/mongodb/mongo-hadoop/blob/master/pig/README.md)将数据从MongoDBBSON文件加载到Pig中,但我遇到了困难。MongoDB上的数据包括可变大小的数组,我不确定如何将其加载到pig中(作为元组?)。这是来自MongoDB的示例记录:{"_id":{"$oid":"52fbbca6e4b029a79cd17ff7"},"field":"value","variableSizeArray":["value1","value

mongodb - Spark with Mongo DB : java. lang.IncompatibleClassChangeError:实现类

我正在尝试使用Scala将示例MongoDB集合加载到Spark,然后将RDD保存到文本文件。以下是我的代码:valsc=newSparkContext(conf)valmongoConfig=newConfiguration()mongoConfig.set("mongo.input.uri","mongodb://localhost:27017/myDB.myCollectionData")valsparkConf=newSparkConf()valdocuments=sc.newAPIHadoopRDD(mongoConfig,//ConfigurationclassOf[Mon

mongodb - 无法在 HDP 的 Hive 查询中使用 mongo-hadoop 连接器

我是hadoop的新手。我已经安装了hortonworks沙箱2.1。我正在尝试使用HiveUI执行Hive脚本。我想访问Hive中的mongo集合。我为此使用了以下查询:CREATETABLEindividuals(idINT,nameSTRING,ageINT,citySTRING,hobbySTRING)STOREDBY'com.mongodb.hadoop.hive.MongoStorageHandler'WITHSERDEPROPERTIES('mongo.columns.mapping'='{"id":"_id"}')TBLPROPERTIES('mongo.uri'='m