草庐IT

Kafka-connect

全部标签

Java UrlConnection 在高负载下触发 "Connection reset"异常。为什么?

我在Linux(Ubuntu10)64位服务器上使用Java从AmazonS3流式传输文件。我为每个文件使用一个单独的线程,每个文件打开一个HttpURLConnection,它同时下载和处理每个文件。在我达到一定数量的流(通常大约2-300个并发流)之前,一切都运行良好。在此之后的不规则点,多个(比如10个)线程将开始java.net.IOException:Connectionreset错误同时。我正在限制下载速度,远远低于m1.large实例的250mbit/s限制。所有其他服务器方面的负载也微不足道(例如CPU、平均负载和内存使用都很好)。可能是什么原因造成的,或者我该如何追踪

java - 将 BrowserMob 代理传递给 Sauce Labs - "The proxy server is refusing connections"错误

我一直在尝试将BrowserMob代理传递给SauceLabs,但没有成功。这是我尝试过的:启动代理服务器shbrowsermob-proxy-port9090启动代理curl-XPOSThttp://localhost:9090/proxy{"port":9091}启动sauceconnect,并传递代理服务器信息java-jarSauce-Connect.jarmynamexxxxxx-plocalhost:9091运行Java客户端ProxyServerproxyServer=newProxyServer(9091);proxyServer.start();Proxyproxy=

java - 如何找到哪个消费者分配给kafka中主题的哪个分区?

我正在构建一个kafka管理器工具,我需要检查哪个主题分区分配给了消费者组中的哪个消费者。假设有消费者组group-A消费主题topic-A,n个分区,那么在group-A托管在不同的VM中。那么如何找到哪个分区分配给哪个消费者主机呢?在kafka0.9.1中可以吗?提前致谢。 最佳答案 您可以检查$KAFKA_HOME/bin/kafka-consumer-groups.sh的工作原理并将其实现集成到您的kafka管理器工具中,该工具将向您展示详细信息组所有者信息(例如,分区分配、滞后、IP)。小组主题分区CURRENT-OFFS

java - 如何使用 Java 中的结构化流从 Kafka 反序列化记录?

我使用Spark2.1。我正在尝试使用SparkStructuredStreaming从Kafka读取记录,反序列化它们并在之后应用聚合。我有以下代码:SparkSessionspark=SparkSession.builder().appName("Statistics").getOrCreate();Datasetdf=spark.readStream().format("kafka").option("kafka.bootstrap.servers",kafkaUri).option("subscribe","Statistics").option("startingOffset

java - 如何连接 Apache Kafka 和 Amazon S3?

我想使用KafkaConnect将来自Kafka的数据存储到存储桶s3中。我已经运行了一个Kafka的主题,并且创建了一个存储桶s3。我的主题有关于Protobuffer的数据,我尝试使用https://github.com/qubole/streamx我得到了下一个错误:[2018-10-0413:35:46,512]INFORevokingpreviouslyassignedpartitions[]forgroupconnect-s3-sink(org.apache.kafka.clients.consumer.internals.ConsumerCoordinator:280)[

javax.mail.MessagingException : Could not connect to SMTP host : <host name> port : 25 response: 554

我正在尝试使用javamailapi发送邮件。我的smtp服务器是ibm服务器。我正面临这个异常(exception)javax.mail.MessagingException:CouldnotconnecttoSMTPhost:port:25response:554请帮助我。提前致谢。 最佳答案 您收到错误代码554:AccessDeniedRelay。这可能是因为您的SMTP服务器无法识别您的请愿书是合法的,并像垃圾邮件一样阻止它。也许您的发件人帐户与服务器预期的域不匹配,或者您需要向您的SMTP连接添加一些额外的验证参数(如果

java - 在Java中创建之前检查kafka中是否存在主题

我正在尝试使用以下方法在kafka0.8.2中创建一个主题:AdminUtils.createTopic(zkClient,myTopic,2,1,properties);如果我在本地多次运行代码进行测试,则会失败,因为主题已经创建。有没有办法在创建主题之前检查主题是否存在?TopicCommandapi似乎没有为listTopics或describeTopic返回任何内容. 最佳答案 您可以使用kakfa-client版本0.11.0.0的AdminClient示例代码:Propertiesconfig=newProperties

java - Connection.isValid(time) 实际上做了什么来检查连接是否有效?

使用OJDBC进程是否使用isValid方法检查连接是否仍然存在?我试图弄清楚它可能对数据库产生什么影响以及这个过程有多繁重。例如它是请求一个列,还是只用几个字节的数据对数据库执行ping操作。 最佳答案 每个供应商以不同的方式实现jdbc方法。例如Oracle的实现是:publicbooleanisValid(intvar1)throwsSQLException{returnthis.pingDatabase(var1)==0;}pingDatabase简单地执行selectxfromdual:intdoPingDatabase(

java - 301 重定向 : Why connection close?

在Java中进行301重定向时,我学会了使用Connection:closeresponse.setStatus(301);response.setHeader("Location","http://www.example.com/");response.setHeader("Connection","close");我们为什么要这样做?为什么不省略最后一行?我至少在三个例子中看到过这一点,包括这个:http://www.pardontheinformation.com/2010/09/java-servlet-jsp-301-and-302-redirect.html我从未见过省略最

java - 何时使用 hibernate.connection.provider_class

什么时候应该使用hibernate.connection.provider_class?我有点混淆它和“hibernate.connection.diver_class”。provider_class可能对连接池有用还有其他我们可以使用provider_class的目的吗? 最佳答案 连接提供程序的另一个用途是随着时间的推移维护session,对于mysql+hibernate的组合尤其如此。如果您没有正确配置的连接提供程序来处理来自mysql的超时,那么如果您有一段时间不活动,您可能迟早会断开与数据库的连接。