草庐IT

HazelCast

全部标签

amazon-s3 - Hazelcast 对比 Redis 对比 S3

我目前正在评估我们可以在相关技术中使用的最快的缓存解决方案。我们知道,虽然Redis和Hazelcast的意图和定义都是缓存解决方案,并且有一个清晰的stackoverflow链接@redisvshazelcast,还有AWSS3,它可能不是一个缓存解决方案,但仍然是一个存储和检索服务+它也支持SQL,这在我看来也使它成为比赛中的预选赛。考虑到这一点,是否有任何基于速度、数据量等比较三者的先见之明? 最佳答案 Hazelcast还提供类似SQL的功能-运行查询以获取结果集中的数据。在技​​术方面,Hazelcast/Redis和S3

caching - 将 Hazelcast/Redis 隐藏在 REST Controller 后面是否有点矫枉过正

我们正在使用内存数据存储,可能是Hazecast或Redis(技术尚未确定)内存数据存储主要用作缓存提供程序,但也用作运行某些分析的计算平台。Hazelcast/Redis提供了自己的本地客户端,允许对网格内容进行细粒度操作。将hazelcast/redis实例包装在Jetty中并公开一个rest接口(interface)并且不为客户端应用程序提供对Hazelcast/Redis的直接访问是否有点矫枉过正?例如,RESTController的职责是检索条目、应用过滤器并在缓存未命中时从数据库中检索条目。向应用程序公开的功能将是只读的+一些涉及多个键的作业(分析)。所以基本上客户端应用程

redis - 有没有什么方法可以在主从架构中配置 hazelcast,比如带有 Spring boot 的 redis

目前,hazelcast正在使用云发现进行通信。因此,如果有4个kubernetespod,并且每个pod都有内存中的hazelcast。每当hazelcast缓存在其中一个pod中更新时,它就会在另一个pod中更新。但如果这两个pod都被缩小并终止,则仅在这2个pod中的数据将丢失。我们能不能有像redis这样的东西,我们可以在其中提供服务器、hazelcast集群的端口,并且它将独立于kubernetespod 最佳答案 请检查以下BlogPost(“无数据丢失的扩展!”部分)阅读如何在Kubernetes上扩展Hazelcas

amazon-web-services - 将 Spring Boot 连接到 Redis : NoClassDefFoundError: org/springframework/session/hazelcast/HazelcastFlushMode

所以我有一个springboot应用程序,我试图连接到AWS上托管的redis集群以进行session完整错误是:Causedby:org.springframework.beans.factory.BeanCreationException:Errorcreatingbeanwithname'spring.session-org.springframework.boot.autoconfigure.session.SessionProperties':Beaninstantiationviaconstructorfailed;nestedexceptionisorg.springfr

wildfly - Hazelcast 需要作为现有集群中的客户端而不是成员连接

我在服务器端所做的更改:@Bean(name={"hazelcast"})publicHazelcastInstancehazelcastInstance(){ClientConfigclientConfig=newClientConfig();clientConfig.getGroupConfig().setName(integrationSettings.getHazelcastClusterGroupName()).setPassword(integrationSettings.getHazelcastClusterGroupPass());finalClientNetworkC

java - 基于 Hazelcast 集群 TCP-IP

我正在使用基于TCPIP的Hazecast发现。(3.7版)创建实例时,它会在同一台机器上创建进程:配置是:myhost1,myhost2(*还探讨了将成员逐个配置到xml中)结果日志:Members[2]{Member[myhost1]:5701-a5f40be8-62ae-5078-9ce4-86a7e5075224Member[myhost1]:5702-9aca0907-46d8-546d-b8db-28a58b77274f}我们只想在每台机器上有一个HAZELCAST实例......使用多播你只需要:Members[2]{Member[myhost1]:5701-b5f40b

tcp - 用于多个网络接口(interface)的 Hazelcast 程序化 TCPIP 配置

我在我的软件中使用hazelcast3.3在集群中进行缓存。我的代码基于以下示例Stackoverflowtcphazelcastexample.(更新2)现在我面临以下问题:我运行我的程序的主机有各种网卡(=>多个IP号码)。我想在同一台机器上使用不同的接口(interface)(IP号码)启动我的程序的各种实例这个的tcp配置似乎是network.getInterfaces().setEnabled(true).addInterface("");无论我在这里给出什么IP,在操作系统端hazelcast总是绑定(bind)到0.0.0.0(所有IP)。这是通缉吗?我希望hazelca

java - 如何在 Hazelcast 中完成分区

我正在使用Hazelcastv2.5。我对集群中的分区有一些疑问。分区是如何识别的?当发出m.get请求时,Hazelcast如何识别数据所在的分区?(除了关键)当新成员加入集群时如何进行分区?输入partition-ID是否可以获取分区中的条目? 最佳答案 Hazelcast有abook涵盖了像你这样的问题。分区是提供容错的内部技术。您可以设置分区数(默认为271)。作为客户端,您可以使用对用户更友好的对象,例如Collections\Queues..对于map,您可以控制备份计数,并且应该从备份中读取hazelcast。我想您可

java - 奇怪的 Hazelcast IMap#put() 行为

我的基于Hazelcast的程序可以在两种模式下工作:提交者和worker。提交者通过一些键将一些POJO放入分布式map,例如:hazelcastInstance.getMap(MAP_NAME).put(key,value);Worker有一个无限循环(内部有Thread.sleep(1000L);超时),它必须处理来自map的实体。现在我只是在这个循环中打印map大小。问题来了。我启动worker应用程序。然后我同时启动四个提交者(每个提交者向map添加一个条目并终止其工作)。但是在所有提交者应用程序完成后,工作应用程序打印任意大小:有时它检测到只添加了一个条目,有时两个,有时三

java - JGroups、Terracotta 和 Hazelcast

我试着仔细研究这3个项目,它们似乎都处理了在尝试集群时出现的略有不同的问题。但是它们的所有文档都是为已经“了解情况”的开发人员编写的,像我这样的新手很难理解。他们每个人试图解决的具体问题是什么,这些问题之间有何不同?使用它们中的每一个进行集群与集群应用服务器(如JBoss或GlassFish的内置集群功能)有何不同?这些框架解决的问题是否不同,足以保证在同一个项目中使用它们?或者他们是相互竞争的,因此对相同/相似的问题有不同的解决方案?提前感谢您对这些奇怪但难以捉摸的框架的任何见解! 最佳答案 jgroups更多是关于任务分配和集群