草庐IT

nb_filter

全部标签

iphone - 应用程序设计 : Handling Core Data w/Background Contexts ; Merging w/Notifications Filtered by MOC

我有一个应用程序设计问题,希望有人能提供帮助。让我们进行一个非常简单的设置:用于显示来自服务器的新闻项的CoreData应用程序。主线程/UI有一个托管对象上下文,所有ViewController都使用它来显示数据。NSOperation在后台运行,在同一个持久存储上使用它自己的上下文检查服务器。我想在后台上下文中合并更改,所以我使用NSManagedObjectContextObjectsDidChangeNotification。AccordingtotheAppledocs:SeveralsystemframeworksuseCoreDatainternally.Ifyoureg

革命 R : filter an xdf using another xdf

我正在尝试使用in过滤一个非常大的xdf文件(位于cloudera上)以将其与另一个xdf文件(位于cloudera上)进行比较。如果我尝试:rxDataStep(inData=largeXdf,outFile=largeXdf,overwrite=TRUE,transformObjects=list(param1=parameter),rowSelection=(columnNameFromLargeXdf%in%param1$1),numRows=-1))我收到关于param$1的错误,指出类s4的对象不能被子集化。与在xdf中一样,数据对象不能被子集化。有没有办法解决?我宁愿不将

hadoop - pig : Filter a string on a basis of a phrase

我想知道是否可以根据短语过滤字符串?例如,我想统计查询中出现ps3(ps3)的次数。我不确定如何不使用与“ps3”的过滤条件完全匹配,因为不知道如何在其中放置一个选项卡。到目前为止我的代码是:data=LOAD'/user/cloudera/'usingPigStorage(',')as(text:chararray);filtered_data=FILTERdataBY(textmatches'.*ps3.*')OR(text=='ps3');Res=FOREACH(GROUPfiltered_dataALL)GENERATECOUNT(filtered_data);DUMPRes;

hadoop - pig FILTER ERROR 1000 : Error during parsing. 遇到

这个脚本运行良好data1=LOAD'/user/maria_dev/ml-100k/test/u3.data'AS(usesrID:int,movieID:int,rating:int,ratingTime:int);DUMPdata1;输出是当我通过错误使用FILTER然后PIGdata1=LOAD'/user/maria_dev/ml-100k/test/u3.data'AS(usesrID:int,movieID:int,rating:int,ratingTime:int);filterRowData1=filterdata1by(int)movieID==556;DUMPfi

hadoop - Apache pig : Filter one tuple on another?

我想根据col2中的条件,并在操作col2之后,通过拆分两个元组(或Pig中的任何名称)来运行Pig脚本,进入另一列,比较两个被操纵的元组并进行额外的排除。REGISTER/home/user1/piggybank.jar;log=LOAD'../user2/hadoop_file.txt'AS(col1,col2);--log=LIMITlog1000000;isnt_filtered=FILTERlogBY(NOTcol2=='Somevalue');isnt_generated=FOREACHisnt_filteredGENERATEcol2,col1,RANDOM()*1000

hadoop - MIn max group wise 和 filter without join in pig

我正在尝试为每个组找到(max+min)/2。以下是我的架构UrlXpathsCount:{url:chararray,leafpathstr:chararray,urlpath_count:long}我正在尝试按url字段对其进行分组byUrl=GROUPUrlXpathsCountbyurl;我正在尝试通过以下方式找到(max+min)/2。midRangeByUrl=FOREACHbyUrl{urls_desc=orderUrlXpathsCountbyurlpath_countdesc;urls_max=limiturls_desc1;urls_asc=orderUrlXpat

hadoop - 我可以在 hadoop - PIG 中使用 "filter by' 和 Map 结构吗?

前提是有一个像,,,这样的mapmap.文本[key1#v1][key2#v2][key3#v3]然后,如果我尝试查找“key2的值​​”,A=load‘map.text’as(M:map[]);B=foreachAgenerateM#'key2';C=filterBby$0!='';//togetridofemptyvaluelike(),(),().dumpC;还有其他方法可以找到key2吗?仅使用“过滤依据”。谢谢你。 最佳答案 不需要GENERATE一个字段,然后在FILTER中使用它;您可以将其包含在FILTER语句中,开

java - 将多个参数传递给 Pig Filter UDF

我是Pig脚本的新手。我想将多个参数传递给Pig过滤器UDF,但出现错误“无效的标量投影:需要从关系中投影列才能将其用作标量”我正在执行以下步骤。input=load'....';dumpinput;/*workingabletoseedata*/output=FILTERinputbynotFilterUDF(input,val1,val2);这没有用。所以我试着跟随。input=load'......';dumpinput;/*workingabletoseedata*/dataWithVal=FOREACHinputGENERATE$0,$1,val1,val2;dumpdata

filter - pig 中的过滤器匹配太多

我有一个过滤关键字列表(大约1000个),我需要使用这个列表过滤pig中的一个关系字段。最初,我将这些关键字声明为:%declarep1'.keyword1.';.......%declarep1000'.keyword1000.';我然后像这样进行过滤:Filtered=FITLERSRCBY(not$0matches'$p1')and(not$0matches'$p2')and......(not$0matches'$p1000');DUMP过滤;假设我的源关系在SRC中,我需要在第一个字段(即$0)上应用过滤。如果我将过滤器的数量减少到100-200,它工作正常。但随着过滤器数量

hadoop - Apache pig : filter based on tupple member content

我正在学习ApachePig,在实现我的愿望时遇到了问题。我有这个对象(在执行GROUPBY之后):MLSET_1:{groupchararray,MLSET:{(key:chararray,text:chararray)}}我只想在某个模式(PATTERN_A)出现在文本中并且另一个模式(PATTERN_B)未出现在一个键的文本字段中时才生成key。我知道我可以使用MLSET.text获取特定键的所有文本值的元组,但是关于如何从元组中筛选项目列表,我仍然遇到同样的问题。这是一个例子:(key_A,{(key_A,start),(key_A,stop),(key_A,unknown),