草庐IT

other_search_fields

全部标签

scala - Spark : how to zip an RDD with each partition of the other RDD

假设我有一个RDD[U],它总是只包含1个分区。我的任务是用位于n个分区上的另一个RDD[T]的内容填充这个RDD。最终输出应该是RDD[U]的n个分区。我最初尝试做的是:valnewRDD=firstRDD.zip(secondRDD).map{case(a,b)=>a.insert(b)}但是我得到一个错误:Can'tzipRDDswithunequalnumbersofpartitions我可以在RDDapi中看到documentation有一个名为zipPartitions()的方法。是否有可能,如果可以,如何使用此方法将RDD[T]中的每个分区压缩为RDD[U]的单个分区并执

hadoop - Pig - 获取 Top n 并在 'other' 中休息

我有分组和聚合的数据,看起来像这样-DateCountryBrowserCount-----------------------2015-07-11,US,Chrome,132015-07-11,US,OperaMini,12015-07-11,US,Firefox,22015-07-11,US,IE,12015-07-11,US,Safari,1...2015-07-11,UK,ChromeMobile,10262015-07-11,UK,IE,4552015-07-11,UK,MobileSafari,47822015-07-11,UK,MobileFirefox,40...201

hadoop - 我如何避免 Hive 表的第一个 "NULL"中的 "Field Name"

首先,我使用以下命令在Hive中创建了表“emp”:createtableemp(idINT,nameSTRING,addressSTRING)ROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t';然后通过以下命令将数据加载到这个“emp”表中:LOADDATALOCALINPATH'\home\cloudera\Desktop\emp.txt'覆盖到表emp;当我从“emp”表中选择数据时:它显示了表Null的第一个字段像这样: 最佳答案 您的文件中有一个标题行,第一个值id无法转换为INT,因此被替换

分布式搜索引擎(Elastic Search)+消息队列(RabbitMQ)部署(商城4)

一、分布式搜索引擎:ElasticSearchElasticSearch的目标就是实现搜索。是一款非常强大的开源搜索引擎,可以帮助我们从海量数据中快速找到需要的内容。在数据量少的时候,我们可以通过索引去搜索关系型数据库中的数据,但是如果数据量很大,搜索的效率就会很低,这个时候我们就需要一种分布式的搜索引擎。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTfulweb接口。Elasticsearch结合kibana、Logstash、Beats,也就是elasticstack(ELK),被广泛应用在日志数据分析、实时监控等领域。而elasticsearch是elasticstack的核心

hadoop - 如何向 Elastic Search 数据库添加计算?

我正在使用ElasticSearch为大量传感器数据编制索引以用于分析目的。该表有超过400万行并且增长迅速-预计明年将达到4000万。这使得ElasticSearch看起来很自然,尤其是使用Kibana等工具可以轻松显示数据。ElasticSearch看起来很棒,但是还必须执行一些更复杂的计算。一种这样的计算是针对我们的“平均用户时间”,我们在其中获取两个数据点(元素拾取的时间戳和元素放回的时间戳),将它们相互减去,然后对一个特定客户的所有这些进行平均具体时间范围。SQL查询看起来像“select*fromeventswhereevent_type='objectpickedup'o

hadoop - 配置单元 get_json_object() : How to check if JSON field exists?

我正在使用Hive和get_json_object()函数来查询存储为JSON的数据。JSON有一个coordinate键和两个字段(纬度和经度),如下所示:"coordinate":{"center":{"lat":36.123413127558536,"lng":-115.17381648045654},"precision":10}我正在运行Hive查询以检索某个地理坐标框中的数据,如下所示:INSERTOVERWRITELOCALDIRECTORY'/home/user.name/sample/sample1.txt'SELECT*FROMmytableWHEREget_jso

hadoop - 使用 Pig 加载 Hbase 表。 float 给出 FIELD_DISCARDED_TYPE_CONVERSION_FAILED

我有一个通过HBaseJavaapi加载的HBase表,如下所示:put.add(Bytes.toBytes(HBaseConnection.FAMILY_NAME),Bytes.toBytes("value"),Bytes.toBytes(value));(其中变量value是一个普通的javafloat。)我继续使用Pig加载它,如下所示:raw=LOAD'hbase://tableName'USINGorg.apache.pig.backend.hadoop.hbase.HBaseStorage('family:value','-loadKeytrue-limit5')AS(id

search - 使用 hadoop 进行日志搜索

我们在需要实时搜索的多个Web服务器上有巨大的日志文件(~100秒的Gigs)。这些日志文件由不同的应用每秒写入多次。为此,我们最近在一些服务器上安装了一个hadoop集群。为了实现对这些日志的搜索,我想到了这样的设计:在web服务器上运行一个进程,它创建一个日志的倒排索引并将其缓存在内存中(在web服务器本身上)并通过flume推送到HDFS当缓存已满时存储在Hive中(这很像LRU缓存)。这在搜索某些内容时有两种帮助:最近的日志从内存缓存中返回并且速度很快,而较旧的日志从磁盘返回。并且由于用户希望首先查看最新日志,因此该技术有效。有人可以验证此设计是否可以正常工作和缩放。周围有更好

hadoop - HBase 中有没有一种方法可以计算匹配 rowkey-search 的行

假设我的Rowkey有两部分(NUM1~NUM2)。我想按Rowkey的第一部分做一个计数组。有没有办法在HBase中执行此操作?我总是可以将其作为M/R作业读取所有行、组、计数...但我想知道是否有一种方法可以在HBase中执行此操作? 最佳答案 选项1:你可以使用prefixfilter....类似下面的内容。前缀过滤器:Thisfiltertakesoneargumentaprefixofarowkey.Itreturnsonlythosekey-valuespresentinarowthatstartswiththespec

java - Hadoop MapReduce : Read a file and use it as input to filter other files

我想编写一个hadoop应用程序,它将一个文件和一个包含多个文件的输入文件夹作为输入。单个文件包含需要从文件夹中的其他文件中选择和提取其记录的key。我怎样才能做到这一点?顺便说一句,我有一个正在运行的hadoopmapreduce应用程序,它将文件夹路径作为输入,进行处理并将结果写到不同的文件夹中。我对如何使用文件获取需要从特定目录中的其他文件中选择和提取的key感到困惑。包含key的文件是一个大文件,因此不能直接放入主存中。我该怎么做?谢谢! 最佳答案 如果键的数量太多而无法放入内存,则考虑将键集加载到布隆过滤器(大小合适以产生