草庐IT

spark-hive

全部标签

Hive 数仓及数仓设计方案

数仓(DataWarehouse)数据仓库存在的意义在于对企业的所有数据进行汇总,为企业各个部门提供一个统一、规范的出口。做数仓就是做方案,是用数据治理企业的方案。数据仓库的特点面向主题集成公司中不同的部门都会去数据仓库中拿数据,把独立从数据仓库中拿数据的单元,称为一个主题。数据仓库中的数据是从各个分散的数据库中抽取出来的,需要进行完整集合,还要进行数据处理。涉及的数据操作主要是查询数仓的本质能够完整记录某个对象在一段时期内的变化情况的存储空间。随着时间变化不断增加新的数据内容,不断删去旧的数据内容。数仓设计方案1.需求分析找谁了解需求?老板:大方向运营人员:具体,多问几个运营人员行业标准规范

Spark大数据分析与实战笔记(第三章 Spark RDD弹性分布式数据集-01)

文章目录每日一句正能量第3章SparkRDD弹性分布式数据集章节概要3.1RDD简介3.2RDD的创建方式3.2.1从文件系统加载数据创建RDD3.2.2通过并行集合创建RDD每日一句正能量学如积薪,后来者居上。第3章SparkRDD弹性分布式数据集章节概要传统的MapReduce虽然具有自动容错、平衡负载和可拓展性的优点,但是其最大缺点是采用非循环式的数据流模型,使得在迭代计算式要进行大量的磁盘IO操作。Spark中的RDD可以很好的解决这一缺点。RDD是Spark提供的最重要的抽象概念,我们可以将RDD理解为一个分布式存储在集群中的大型数据集合,不同RDD之间可以通过转换操作形成依赖关系实

返回null dayofyear函数 - Spark SQL

我是Databricks&火花/Scala。我目前正在研究机器学习以进行销售预测。我使用Dayfyear功能创建功能。唯一的问题是返回我的零值。我尝试使用此CSV,因为我正在使用另一个CSV,我认为这可能来自此。但是显然,我错了。我阅读了有关此功能的文档,但描述确实很短。我尝试了dayofmonth或neekefyear,结果相同。您能解释一下我如何解决这个问题吗?我究竟做错了什么?valpath="dbfs:/databricks-datasets/asa/planes/plane-data.csv"valdf=sqlContext.read.format("csv").option

云计算Spark环境搭建并搭建conda环境

云计算Spark环境搭建并搭建conda环境第一部分:搭建Spark将Spark和Miniconda传进容器并解压修改Spark下/spark/conf/spark_env.sh如果是template模板可以复制一份改名下面路径需要修改为自己的路径exportHADOOP_CONF_DIR=/root/hadooptar/hadoop/etc/hadoopexportYARN_CONF_DIR=/root/hadooptar/hadoop/etc/hadoopexportSPARK_PID_DIR=/root/hadooptar/hadoop/pidexportJAVA_HOME=/opt/h

使用Python进行大数据处理和分析:Hadoop和Spark

1.背景介绍大数据处理和分析是现代科学和工程领域中的一个重要领域,它涉及处理和分析海量数据,以挖掘有价值的信息和知识。随着数据的规模不断扩大,传统的数据处理方法已经无法满足需求。因此,大数据处理和分析技术得到了广泛的关注和应用。Hadoop和Spark是两个非常重要的大数据处理框架,它们都使用Python进行开发和应用。Hadoop是一个分布式文件系统(HDFS)和分布式计算框架(MapReduce)的集合,用于处理和分析大量数据。Spark是一个快速、灵活的大数据处理框架,它使用内存计算而不是磁盘计算,提高了处理速度和效率。在本文中,我们将深入探讨Hadoop和Spark的核心概念、算法原理

【系统学习Hive常用知识】

文章目录前言一、Hive是什么?二、Hive安装配置1.hive包安装2、配置Hive元数据存储到MySQL3、Hive服务部署三、Hive数据操作1、DDL数据定义2、DML数据操作3、Export&Import四、查询1、SortBy2、分区(DistributeBy)3、分区排序(ClusterBy)五、函数1、数值函数2、字符串函数3、日期函数4、控制函数5、集合函数6、聚合函数7、炸裂函数8、窗口函数六、分区表和分桶表1、分区表2、修复分区3、二级分区4、动态分区5、分桶表七、Hive文件格式1、TextFile2、ORC前言Hive是由Facebook开源,基于Hadoop的一个数

spark 学习笔记

SparkCoreSpark是一种基于内存的快速,通用,可扩展的大数据分析计算引擎和Hadoop进行比较HadoopMapReduce由于其设计初衷并不是为了满足循环迭代式数据流处理,因此在多并行运行的数据可复用场景(如:机器学习、图挖掘算法、交互式数据挖掘算法)中存在诸多计算效率等问题。所以Spark应运而生,Spark就是在传统的MapReduce计算框架的基础上,利用其计算过程的优化,从而大大加快了数据分析、挖掘的运行和读写速度,并将计算单元缩小到更适合并行计算和重复使用的RDD计算模型它的核心技术是弹性分布式数据集(ResilientDistributedDatasets),提供了比M

Spark AQE源码探索

介绍AQE全称是AdaptiveQueryExecution,官网介绍如下PerformanceTuning-Spark3.5.0DocumentationAQE做了什么AQE是SparkSQL的一种动态优化机制,在运行时,每当ShuffleMap阶段执行完毕,AQE都会结合这个阶段的统计信息,基于既定的规则动态地调整、修正尚未执行的逻辑计划和物理计划,来完成对原始查询语句的运行时优化特性自动分区合并:在Shuffle过后,ReduceTask数据分布参差不齐,AQE将自动合并过小的数据分区。Join策略调整:如果某张表在过滤之后,尺寸小于广播变量阈值,这张表参与的数据关联就会从Shuffle

Hive内核调优(二)

Hive内核调优(二)1.3Hive日志说明SQL调优过程中需要结合Hive日志分析性能瓶颈,如下是对关键日志进行说明。1.3.1运行日志运行态日志主要包括HiveServer日志、MetaStore日志、Yarn日志。HiveServer日志:HiveServer负责接收客户端请求(SQL语句),然后编译、执行(提交到YARN或运行localMR)、与MetaStore交互获取元数据信息等。HiveServer运行日志记录了一个SQL完整的执行过程。通常情况下,当我们遇到SQL语句运行失败,我们首先要看的就是HiveServer运行日志。日志文件路径:/var/log/Bigdata/hiv

Hive与Hbase的区别与联系

一、概念1,Hivehive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。Hive的优点是学习成本低,可以通过类似SQL语句实现快速MapReduce统计,使MapReduce变得更加简单,而不必开发专门的MapReduce应用程序。hive十分适合对数据仓库进行统计分析。2,HbaseHBase是一个分布式的、面向列的开源数据库,该技术来源于FayChang所撰写的Goog