草庐IT

portable-database

全部标签

database - 将数据从 HDFS 加载到 Vertica

从HDFS加载数据到vertica时出现以下错误我只是停止了以前工作的数据库并在Vertica中创建了新数据库。然后我跑了vsql-f[AggregateFunctions.sql,AnalyticFunctions.sql,FilterFunctions.sql,JavaFunctions.sql,JavaUDLFunctions.sql,ParserFunctions.sql,SourceFunctions.sql,TransformFunctions.sql]当我尝试使用以下命令从HDFS加载数据时COPYexploded001SOURCEHdfs(url='http://had

database - 如何按频率对 Google 数据库(或托管在 AWS 上的数据库)中的 ngram 进行排序

我正在寻找一种按频率订购GoogleBook的Ngram的方法。原始数据集在这里:http://books.google.com/ngrams/datasets.在每个文件中,ngram按字母顺序排序,然后按时间顺序排序。我的电脑不够强大,无法处理2.2TB的数据,所以我认为唯一的排序方式是“在云端”。AWS托管版本在这里:http://aws.amazon.com/datasets/8172056142375670.是否有经济有效的方法来找到10,000个最常见的1grams、2grams、3grams、4grams和5grams?麻烦的是,数据集包含多年的数据:Asanexampl

hadoop - 配置单元 : Drop database

我需要在配置单元中删除一个大数据库,但我找不到选项here跳过垃圾,如purge删除表。当为垃圾应用空间配额时,这可能会造成麻烦!任何仅使用配置单元DDL命令的建议?要清楚:我做什么:Dropdatabasecascade;我在寻找什么或类似的东西:Dropdatabasecascadepurge; 最佳答案 配置单元默认.xmlhive.warehouse.data.skipTrashtrueSetthistotrueifyoudonotwanttabledatatobemovedtotrashwhiledroppingtable

hadoop - java.sql.SQLException : Failed to start database '/var/lib/hive/metastore/metastore_db' in hive 异常

我是hive的初学者。当我尝试执行任何配置单元命令时:hive>显示表格;它显示以下错误:FAILED:Errorinmetadata:javax.jdo.JDOFatalDataStoreException:Failedtostartdatabase'/var/lib/hive/metastore/metastore_db',seethenextexceptionfordetails.NestedThrowables:java.sql.SQLException:Failedtostartdatabase'/var/lib/hive/metastore/metastore_db',se

hadoop - 使用配置单元初始化数据库时出现 java.sql.SQLException : Failed to start database 'metastore_db' ERROR,

我在3个集群上安装了Hadoop和Hive。我能够从运行HIVE的集群节点登录到配置单元。root@NODE_3hive]#hiveLogginginitializedusingconfigurationinjar:file:/usr/lib/hive/lib/hive-common-0.10.0-cdh4.2.0.jar!/hive-log4j.propertiesHivehistoryfile=/tmp/root/hive_job_log_root_201304020248_306369127.txthive>showtables;OKTimetaken:1.459secondsh

database - 将记录存储在 HDFS 或 HBase 中

我有以下场景:测量数据以文件形式通过网络服务上传这些文件随后被复制到HDFS每个测量包含一个或多个参数的许多特征(值)测量值的数量可能不同使用Hadoop上的机器学习算法处理测量值并非所有测量都进行了,而是针对特定用户在特定时间段进行的(例如,对用户X在Y-Z期间上传的文件进行处理)中间结果存储在HDFS,最终结果也是如此我的问题与第二点有关-这些文件后来被复制到HDFS-我担心存在大量小文件(例如1MB)可能是个问题。我的想法是将该文件存储在数据库中,这样我就可以避免小文件的问题,并且还能够查询数据(为用户选择一段时间的数据)。这是更好的方法吗?如果答案是肯定的,我可以使用哪些数据库

hadoop - Oozie--失败 : SemanticException [Error 10072]: Database does not exist: testnamespace

我在使用Hive查询运行Oozie工作流时遇到错误。这是工作流程${jobTracker}${nameNode}${dir}/gsrlQery.hqlOutputDir=${jobOutput}${jobTracker}${nameNode}${dir}/nongsrlQuery.hqlOutputDir=${jobOutput}${jobTracker}${nameNode}${dir}/nongsrlRAQuery.hqlOutputDir=${jobOutput}${failureEmailToAddress}SuccessTheworkflow${wf:name()}withi

database - 如何使用 shell 脚本将 HiveQL 查询的结果输出到 CSV?

我想运行多个Hive查询,最好是并行而不是顺序运行,并将每个查询的输出存储到一个csv文件中。例如,query1在csv1中输出,query2在csv2中输出,等等。我会在之后运行这些查询离开工作的目标是在下一个工作日对输出进行分析。我对使用bashshell脚本很感兴趣,因为这样我就可以设置一个cron任务以在一天中的特定时间运行它。我知道如何将HiveQL查询的结果存储在CSV文件中,一次一个查询。我用类似下面的东西来做到这一点:hive-e"SELECT*FROMdb.table;""|tr"\t"",">example.csv;上面的问题是我必须监视进程何时完成并手动启动下一个

database - 对非常庞大的数据集进行评分

关闭。这个问题需要更多focused.它目前不接受答案。想改进这个问题吗?更新问题,使其只关注一个问题editingthispost.关闭7年前。Improvethisquestion我使用R/Python在1-2%的样本数据上拟合了一个机器学习分类器,我对准确性度量(精度、召回率和F_score)非常满意。现在我想用这个用R编码的分类器对一个拥有7000万行/实例的巨大数据库进行评分,该数据库驻留在Hadoop/Hive环境中。关于数据集的信息:7000万X40个变量(列):大约18个变量是分类变量,其余22个是数字变量(包括整数)我该怎么做?有什么建议吗?我想到的事情是:a)将数据

database - 针对不断变化的大型数据集发出实时警报

我有一个庞大的数据集,我必须监控其中的异常情况并发送警报。最接近我正在尝试做的例子如下。假设关系数据库中有一个股票表:stocks:iddatestock_nameprice假设我们正在处理一百万只股票。白天,股票价格根据持续和频繁的实时信息不断更新。在一天结束时,每只股票的最后记录价格是当天的收盘价。第二天,我们向表中添加另外一百万条记录并再次开始处理它。假设用户可以配置如下警报:“当AAPL的走势超过过去10天的平均值10%时,提醒我”或“当任何股票在过去10天内的波动幅度超过其平均水平的10%时,提醒我”我们需要满足来自不同用户的100条提醒。持续轮询并尝试定期匹配警报是不切实际