草庐IT

hive-env

全部标签

Hive on Spark配置

前提条件1、安装好Hive,参考:Hive安装部署-CSDN博客2、下载好Spark安装包,链接:https://pan.baidu.com/s/1plIBKPUAv79WJxBSbdPODw?pwd=66663、将Spark安装包通过xftp上传到/opt/software安装部署Spark1、解压spark-3.3.1-bin-without-hadoop.tgz进入安装包所在目录cd/opt/software解压缩tar-zxvfspark-3.3.1-bin-without-hadoop.tgz-C/opt/moudle进入解压后的目录,修改文件名cd/opt/moudlemvspar

Hive数仓

1、概念数据仓库,英文名称为DataWarehouse,可简写为DW或DWH。数据仓库顾名思义,是一个很大的数据存储集合,出于企业的分析性报告和决策支持目的而创建,对多样的业务数据进行筛选与整合。OLAP:在线分析处理(OnlineAnalyticalProcessing)是大数据技术中快速解决多维分析问题的方法之一。由于OLAP需要快速读取大量数据,因此它对数据的读取吞吐量和计算效率有很高的要求。OLAP分析一般需要设计数据立方体,立方体由分析的维度(dimension)、层级(level)和指标(metric)来定义,支持上卷(roll-up)、钻取(drill-down)、切片(slic

删除和清空Hive外部表数据

外部表和内部表区别未被external修饰的是内部表(managedtable),被external修饰的为外部表(externaltable);区别:内部表数据由Hive自身管理,外部表数据由HDFS管理;内部表数据存储的位置是hive.metastore.warehouse.dir(默认:/user/hive/warehouse),外部表数据的存储位置由自己制定(如果没有LOCATION,Hive将在HDFS上的/user/hive/warehouse文件夹下以外部表的表名创建一个文件夹,并将属于这个表的数据存放在这里);删除内部表会直接删除元数据(metadata)及存储数据;删除外部表

(07)Hive——窗口函数详解

一、窗口函数知识点1.1窗户函数的定义    窗口函数可以拆分为【窗口+函数】。窗口函数官网指路:LanguageManualWindowingAndAnalytics-ApacheHive-ApacheSoftwareFoundationhttps://cwiki.apache.org/confluence/display/Hive/LanguageManual%20WindowingAndAnalytics窗口:over(),指明函数要处理的数据范围函数:指明函数计算逻辑1.2窗户函数的语法window_nameover([partitionby字段...][orderby字段...][窗

Hive-使用REGXP创建组并将它们分配到数组中

我有一个正则表达式,可以在表中解析一些原始数据,例如:',?([\w]*|\d*)'.selectregexp_extract(raw_line,',?([\w]*|\d*){1}',1)asfield1,regexp_extract(raw_line,',?([\w]*|\d*){2}',1)asfield2,...,regexp_extract(raw_line,',?([\w]*|\d*){n}',1)asfieldnfromtable这将创建组以解析CSV字段。问题是桌子和分析的每行都很长,因此这是一个昂贵的操作。我想知道我是否可以使用正则表达式(没有组{n}并将其分成数组。然后,我可

Flink SQL --Flink 整合 hive

1、整合#1、将依赖包上传到flink的lib目录下flink-sql-connector-hive-3.1.2_2.12-1.15.2.jar#2、重启flink集群yarnapplication-listyarnapplication-killapplication_1699579932721_0003yarn-session.sh-d#3、重新进入sql命令行sql-client.sh2、Hivecatalogcatalog(元数据)--->database--->table--->数据--->列--1、开启hive的元数据服务nohuphive--servicemetastore&--

【大数据Hive】hive 表设计常用优化策略

目录一、前言二、hive普通表查询原理2.1操作演示说明2.1.1创建一张表,并加载数据2.1.2统计3月24号的登录人数2.1.3查询原理过程总结2.2普通表结构带来的问题三、hive分区表设计3.1区表结构-分区设计思想3.2操作演示3.2.1创建分区表按照登录日期分区3.2.2开启动态分区按登录日期分区基于分区表查询数据查询先检索元数据查询执行计划四、hive分桶表设计4.1Hive中Join的问题4.2分桶表设计思想4.3创建分桶表操作创建第一张普通表构建分桶emp表创建第二张普通表dept并加载数据构建分桶dept表并加载数据4.4普通表与分桶表join执行分析普通表的join执行计

基于大数据与时间序列预测的的书籍数据分析(内含spark+hive+mysql+kettle+echart+tensorflow)

目录一,绪论1、项目背景:2、目标:3、用户群体:二.相关开发技术介绍(一)后端相关技术1.sparkSQL简介2.kettle简介3.tensorflow简介(二)前端相关技术1.HTML简介2.echarts简介(三)相关数据库1.Mysql简介2.hive简介三.需求分析三.系统设计项目框架:系统目的:数据库设计:四.系统实现1.预处理:数据仓库:分层导入导出:预测部分代码和结果:运行结果:可视化展示五.得到结论一,绪论1、项目背景:通过合理的预测预测各个年份出版图书的占比可以提供一些有用的信息和洞察,例如:市场趋势分析:通过观察图书占比的变化,可以分析出版业的发展趋势和变化趋势,了解不

conda env退回到之前的版本

默认显示的是base环境的历史记录condalist--revisions回到第N个版本condainstall--revisionN显示指定环境的修改记录condalist-nenv_name-r

关于hive on spark部署后insert报错Error code 30041问题

报错问题描述ERROR:FAILED:ExecutionError,returncode30041fromorg.apache.hadoop.hive.ql.exec.spark.SparkTask.[wyh@hadoop1002spark]$*************************************************​ERROR:FAILED:ExecutionError,returncode30041fromorg.apache.hadoop.hive.ql.exec.spark.SparkTask.Failedtoexecutesparktask,withexcep