草庐IT

all-database

全部标签

database - RDBMS 时间戳与 Hive 时间戳时区不匹配

如果我查询RDBMS以获取我收到的时间戳:2015-03-3000:00:00在我将它作为bigint列导出到Hive表后,我得到1427673600000(cast(tsastimestamp)gives2015-03-3002:00:00)。即当前本地时区(带夏令时)已应用于时间戳。如果我想与数据库中的内容保持一致,如何将导出的时间戳存储在Hive中?我是否需要始终将时间戳存储为Hive中的UTC格式,所以在这种情况下,我需要从我得到的时间中减去2小时然后我必须在查询期间应用当前时区(使用from_utc_timestamp)?如何考虑夏令时(GMT+1和GMT+2)?什么是最佳实

database - Spark 中的快速条件加入

我正在尝试使用条件查询在Spark中进行快速扩充。我有两个键/值数据集:“事件数据”和“session映射”。“session映射”用于找出谁在两个时间戳之间使用给定的IP。“事件数据”是大量事件的集合,具有IP和时间戳,需要与“session映射”相关联以丰富用户名。是否有一种有效的方法可以根据Spark中的session映射或其他方式丰富事件数据?sessionmap:(IP,start_time,end_time)->Name(192.168.0.l,2016-01-0110:00:00,2016-01-0122:00:00)->John(192.168.0.l,2016-01-

database - Sqoop 是否使用 Reducer?

如果在使用--query参数给出的选择查询中执行连接/聚合,Sqoop是否运行reducer?或者在Sqoop中是否存在同时运行映射器和缩减器的情况?Documentation指定每个映射任务都需要执行查询的副本,结果按Sqoop推断的边界条件进行分区。$sqoopimport\--query'SELECTa.*,b.*FROMaJOINbon(a.id==b.id)WHERE$CONDITIONS'\--split-bya.id--target-dir/user/foo/joinresults在上面的示例中,JOIN如何在首先使用$CONDITIONS对表进行分区的地方发生?

database - 创建 Hive Metastore 数据库表错误

我正在运行ClouderaManager(免费版),我到达了向导创建HiveMetastore数据库的地步。显示此错误并停止配置过程。使用/var/run/cloudera-scm-agent/process/40-hive-metastore-create-tables/hadoop-conf作为HADOOP_CONF_DIR我似乎找不到任何可能导致此问题的信息?到目前为止,一切都已正确配置,安装的一切以及用户名和密码都是正确的。有人以前见过这个错误吗?想法?错误日志:atsun.reflect.DelegatingConstructorAccessorImpl.newInstanc

database - 将数据从 HDFS 加载到 Vertica

从HDFS加载数据到vertica时出现以下错误我只是停止了以前工作的数据库并在Vertica中创建了新数据库。然后我跑了vsql-f[AggregateFunctions.sql,AnalyticFunctions.sql,FilterFunctions.sql,JavaFunctions.sql,JavaUDLFunctions.sql,ParserFunctions.sql,SourceFunctions.sql,TransformFunctions.sql]当我尝试使用以下命令从HDFS加载数据时COPYexploded001SOURCEHdfs(url='http://had

database - 如何按频率对 Google 数据库(或托管在 AWS 上的数据库)中的 ngram 进行排序

我正在寻找一种按频率订购GoogleBook的Ngram的方法。原始数据集在这里:http://books.google.com/ngrams/datasets.在每个文件中,ngram按字母顺序排序,然后按时间顺序排序。我的电脑不够强大,无法处理2.2TB的数据,所以我认为唯一的排序方式是“在云端”。AWS托管版本在这里:http://aws.amazon.com/datasets/8172056142375670.是否有经济有效的方法来找到10,000个最常见的1grams、2grams、3grams、4grams和5grams?麻烦的是,数据集包含多年的数据:Asanexampl

hadoop - 配置单元 : Drop database

我需要在配置单元中删除一个大数据库,但我找不到选项here跳过垃圾,如purge删除表。当为垃圾应用空间配额时,这可能会造成麻烦!任何仅使用配置单元DDL命令的建议?要清楚:我做什么:Dropdatabasecascade;我在寻找什么或类似的东西:Dropdatabasecascadepurge; 最佳答案 配置单元默认.xmlhive.warehouse.data.skipTrashtrueSetthistotrueifyoudonotwanttabledatatobemovedtotrashwhiledroppingtable

深入浅出:理解 JavaScript 中的 Promise.all()

在现代的JavaScript开发中,异步编程是一个无法避免的话题。无论是处理网络请求,用户输入,还是文件操作,异步编程都扮演着核心角色。ES6引入的Promise极大地简化了异步操作,而Promise.all()则为处理多个并行的异步任务提供了优雅的解决方案。本文将深入探讨Promise.all()的概念、用法及其在实际场景中的应用。初识Promise.all()想象你正准备一顿大餐,有多个锅同时在炉子上烹饪。你需要等所有锅里的食物都煮熟了才能开始吃饭。在JavaScript的世界里,Promise.all()就像是厨师,它负责监控每个锅(即Promise),确保每一个都煮熟了(即解决了),然

hadoop - java.sql.SQLException : Failed to start database '/var/lib/hive/metastore/metastore_db' in hive 异常

我是hive的初学者。当我尝试执行任何配置单元命令时:hive>显示表格;它显示以下错误:FAILED:Errorinmetadata:javax.jdo.JDOFatalDataStoreException:Failedtostartdatabase'/var/lib/hive/metastore/metastore_db',seethenextexceptionfordetails.NestedThrowables:java.sql.SQLException:Failedtostartdatabase'/var/lib/hive/metastore/metastore_db',se

hadoop - 使用 start-all.sh 启动 hadoop 进程遇到问题

关闭。这个问题是off-topic.它目前不接受答案。想改进这个问题吗?Updatethequestion所以它是on-topic用于堆栈溢出。关闭10年前。Improvethisquestion我正在使用redhatlinux4.1.2当我尝试使用以下命令启动hadoop时,它要求输入root@localhost密码。我不明白这里要输入什么密码。sreenath@sreenath-pc#sudo-i[root@sreenath-pchadoop-1.1.1]#bin/start-all.shWarning:$HADOOP_HOMEisdeprecated.startingnameno