草庐IT

mynew_udf

全部标签

c++ - 为 UDF std::unordered_map 提供 ":"运算符?

我正在围绕std::unorered_map编写一个包装器,但是我有点不确定我应该如何提供一个公共(public)成员函数来访问C++11中“:”特性提供的迭代,例如://Iteratethroughallunoredered_mapkeysfor(autox:my_map){//Processeachx}我如何通过围绕unordered_map的包装器提供与上述相同的功能?尝试过的解决方案:#include#includetemplateclassMyClass{private:std::unordered_mapmap;std::mutexmtx;public:MyClass(){

Hive用户自定义函数之UDF开发

在进行大数据分析或者开发的时候,难免用到Hive进行数据查询分析,Hive内置很多函数,但是会有一部分需求需要自己开发,这个时候就需要自定义函数了,Hive的自定义函数开发非常方便,今天首先讲一下UDF的入门开发。UDF开发简单实现将字符串小写化的功能。环境版本Hive3.1.0.XJDK8Maven3.8.1开发步骤首先Maven创建引入Jar包4.0.0com.hive.tutoriallow-str1.0.0jar88org.apache.hivehive-exec3.1.0org.apache.hadoophadoop-common3.1.0编写UDF函数packagecom.hive

sql - 如何使用标准查询或使用 UDF 标记一行并将其特定值存储在 Hive 中?

我需要在Hive中编写查询或定义需要执行以下操作的函数:数据集:Student||Time||ComuputerPool-------------------------------------A||9:15AM||Pool1.Machine2-------------------------------------A||9:45AM||Pool1.Machine7-------------------------------------A||10:15AM||Pool1.Machine9-------------------------------------A||11:00AM||

java - 在 HIVE 中运行 UDF 以进行自定义反序列化时出现 OWN_TASK_FAILURE。

我正在编写一个配置单元脚本来从源中提取数据并将其添加到不同的目的地。存储在源中的数据采用自定义格式。因此,我使用HiveUDF获取数据,反序列化并返回List(我试过List)。我创建了一个包含4个字符串参数的Hive表(HIVE_TABLE)并运行以下配置单元查询。>INSERTOVERWRITETABLEHIVE_TABLESELECTudfFunction(colName)[0],udfFunction(colName)[1],udfFunction(colName)[2],udfFunction(colName)[3]fromsourceTable;其中“udfFunction

hadoop - 接受多个输入的 Pig UDF

PigUDF的快速问答。我有一个自定义UDF,我想接受多列:packagepigfuncs;importjava.io.IOException;importjava.util.ArrayList;importjava.util.List;importorg.apache.pig.EvalFunc;importorg.apache.pig.FuncSpec;importorg.apache.pig.data.DataBag;importorg.apache.pig.data.DataType;importorg.apache.pig.data.Tuple;importorg.apache

java - 仅映射的 UDF 是否受益于代数或累积?

在Hadoop上的Pig中,我有一个应用于大元组的JavaUDF,它仅采用大元组的4个字段,并且(在一些重要的计算之后)返回两个新值,我附加到大元组上。没有减少阶段。CanthisbenefitfrombeingmadeAlgebraic,orAccumulative?在没有任何分组的情况下,我看不出它会如何提高速度。似乎分组只是为了尝试获得加速是在错误方向上的巨大飞跃。 最佳答案 不,我认为您正在创建一个常规的EvalFunc。使其成为Algebraic或Accumulative是没有意义的。LOWER或REGEX_EXTRACT

hadoop - HIVE:UDF 错误失败:找不到类 <ClassName>

我正在尝试使用myjar.jar作为HIVE中的UDF函数,如下所示,echo"Addmyjar.jar"$HIVE_HOME/bin/hive-e"ADDJAR/gpfs/user/username/HIVE/myjar.jar;"echo"Listmyjar.jar,thisisshowinglocaldirectorypath"$HIVE_HOME/bin/hive-e"listjar;"$HIVE_HOME/bin/hive-e"dropfunctionifexistsmyfunction;"echo"Createtemporaryfunction,myclassnameisU

scala - 尝试从 UDF 执行 spark sql 查询

我正在尝试使用scala在spark框架中编写一个内联函数,它将接受一个字符串输入,执行一个sql语句并返回一个字符串值valtestfunc:(String=>String)=(arg1:String)=>{valk=sqlContext.sql("""selectc_codefromr_c_tblwherex_nm="something"""")k.head().getString(0)}我正在将此Scala函数注册为UDFvaltestFunc_test=udf(testFunc)我在配置单元表上有一个数据框valdf=sqlContext.table("some_table")

hadoop - 创建一个使用可以返回列名的 UDF 函数的 hiveQL 查询

我想创建一个HiveUDF函数,该函数根据某些值返回特定的列名,例如retreivecol(age)。如果年龄为20,则返回要在选择查询中使用的列名列表,例如“name,email,fbuserid、friend列表等,如果年龄小于20岁,则单独返回“姓名”。所以我希望我的HIVEQL查询看起来像从User_Data中选择retreivecol(age);上面的查询只打印列的名称,如“name、email、fbuserid、friendslist”等,而不是将它们视为列名称并基于相同的名称进行过滤。感谢任何指针。 最佳答案 我不确定

map - PIG UDF 加载 .gz 文件失败

我编写了UDF以将文件加载到Pig中。它适用于加载文本文件,但是,现在我还需要能够读取.gz文件。我知道我可以解压缩文件然后处理,但我只想读取.gz文件而不解压缩它。我的UDF从LoadFunc扩展,然后在我的自定义输入文件MyInputFileextendsTextInputFormat中。我还实现了MyRecordReader。只是想知道extendsTextInputFormat是否是问题所在?我尝试了FileInputFormat,仍然无法读取文件。有人写过UDF从.gz文件读取数据吗? 最佳答案 TextInputForm