您现在的位置是:首页 >技术交流 >Hive学习---5、文件格式和压缩、企业级调优网站首页技术交流

Hive学习---5、文件格式和压缩、企业级调优

星光下的赶路人star 2024-08-12 00:01:02
简介Hive学习---5、文件格式和压缩、企业级调优

1、文件格式和压缩

1.1 Hadoop压缩概述

由于Hive是相当于与Hadoop的客户端,所以hadoop会啥压缩,Hive基本就会啥压缩。

压缩格式算法文件扩展名是否可切分
DEFLATEDEFLATE.deflate
GzipDEFLATE.gz
bzip2bzip2.bz2
LZOLZO.lzo
SnappySnappy.snappy
为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器,如下表所示:
Hadoop查看支持压缩的方式hadoop checknative。
Hadoop在driver设置压缩
压缩格式对应的编码/解码器
DEFLATEorg.apache.hadoop.io.compress.DefaultCodec
gziporg.apache.hadoop.io.compress.GzipCodec
bzip2org.apache.io.compress.BZip2Codec
LZOcom.hadoop.compression.lzo.LzopCodec
Snappyorg.apache/hadoop.io.compress.SnappyCodec

压缩性能的比较

压缩算法原始文件大小压缩文件大小压缩速度解压速度
gzip8.3GB1.8GB17.5MB/s58MB/s
bzip28.3GB1.1GB2.4MB/s9.5MB/s
LZO8.3GB2.9GB49.3MB/s74.6MB/s

1.2 Hive文件格式

为Hive表中的数据选择一个合适的文件格式,对提高查询性能的提高是十分有益的。Hive表数据的存储格式,可以选择text file、orc、parquet、sequence filed等。

1.2.1 Text File

文本文件是Hive默认使用的文件格式,文本文件中的一行内容,就对应Hive表中的一行记录。

可以通过以下建表语句指定文件格式为文本文件

create table table_name
(colum_specs)
stroed as textfile;
1.2.2 ORC

1、文件格式
ORC(Optimized Row Columnar)file format 是Hive 0.11版里引入的一种列式储存的文件格式。ORC文件能够提高Hive读写数据和处理数据的性能。

与列示储存相对的是行式储存,下图是两者的对比
在这里插入图片描述
如图所示左边为逻辑表,右边第一个是行式储存,第二个为列式储存。
(1)行储存的特点
查询满足条件的一整行数据的时候,列示储存则需要去每个聚集的字段找到对应的每个列的值,行式储存只需要找到其中的一个值,其余的值都在相邻的地方,所以此时行储存查询的速度更快。
(2)列储存的特点
因为每个字段的数据都聚集储存,在查询只需要少数几个字段的时候,能大大减少读取的数据量;每个字段的数据类型一定是相同的,列式储存可以针对性的设计更好的设计压缩算法。
前文提到的text file和sequence file都是基于行储存的,orc和parquet是基于列式储存的。

orc文件的具体结果如下图所示:
在这里插入图片描述
每个ORC稳定有Header、Body和Tail三部分组成。

其中Header内容为ORC,用于表示文件类型。

Body有一个或多个strip组成,每个stripe一般为HDFS的块大小,每一个strip包含多条记录,这些记录按照列进行独立储存,每个stripe里有三部分组成,分别是Index Data,Row Data,Stripe Footer。

Index Data:一个轻量级index,默认是为各列每隔1w行做一个索引。每个索引会记录第n万行的位置,和最近一万行的最大值和最小值等信息。

Row Data:存的是具体的数据,按列进行储存,并对每个列进行编码,分成多个Stripe来储存。

Stripe Footer:存放的是各个Stripe的文职以及各column的编码信息。

Tail由File Footer和PostScript组成。FIle Footer中保存了各Stripe的起始位置、索引长度、数据长度信息,各Column的统计信息等;PostStript记录了整个文件的压缩类型以及File Footer的长度信息。

在读取ORC文件的时候,会先从最后一个字节读取PostScript长度,进而读取到postScript,从里面解析到File Footer长度,进而读取FileFooter,从中解析到各个Stripe信息,再读各个Stripe,即从后往前读。

(3)建表语句

create table table_name
(column_specs)
stored as orc
tblproperties(property_name=property_value)

ORC文件格式支持的参数如下:

参数默认值说明
orc.compressZLIB压缩格式,可选项:NONE、ZLIB、SNAPPY
orc.compress.size262144每个压缩块的大小(ORC文件是分块压缩的)
orc.stripe.size67108864每个Stripe的大小
orc.row.index.stirpe10000索引步长(每隔多少行数据建一条索引)
1.1.3 Parquet

Parquet文件是Hadoop生态中一个通用的文件格式,它也是一个列式储存的文件格式。

Parquet文件的格式如下图所示:
在这里插入图片描述
上图展示了一个Parquet文件的基本结构,文件的首尾都是该文件的Magic Code,用于校验它是否是一个Parquet文件。

首尾中间由若干个Row Group 和Footer(File Meta Data)组成。

每个Row Group包含多个Column Chunk,每个Column Chunk包含多个Page。以下是Row Group、Column Chunk和Page三个概念的说明:

行组(Row Group):一个行组对应逻辑表中的若干行
列块(Column Chunk):一个行组中的一列保存在一个列块中
页(Page):一个列块的数据会划分为若干个页。

Footer(File Meta Data)中存储了每个行组(Row Group)中的每个列块(Column Chunk)的元数据信息,元数据信息包括了该列的数据类型、该列的编码方式、该类的Data Page位置等信息。

建表语句

create table table_name
(column_specs)
stored as parquet
tblproperties(property_name=property_value,...)

支持的参数如下:

参数默认值说明
parquet.compressionuncompressed压缩格式,可选项:uncompressed,snappy,gzip,lzo,brotli,lz4
parquet.block.size134217728行组大小,通常与HDFS块大小保持一致
parquet.page.size1048576页大小

1.3 压缩

在Hive表和计算过程中,保存数据的压缩,对磁盘空间的有效利用和提高查询性能都是十分有益的。

1.3.1 Hive表数据进行压缩

在Hive中,不同文件类型的表,声明数据压缩的方式是不同的。

1、TextFile
若一张表的文件类型为TextFile,若需要对该表中的数据进行压缩,多数情况下,无需在建表语句做出声明。直接将压缩的文件导入到该表即可,Hive在查询表中数据时,可自动识别其压缩格式,进行解压。

需要注意的是,在执行往表中导入数据的SQL语句时,用户需设置以下参数,来保证写入表中的数据是被压缩的。

--SQL语句的最终输出结果是否压缩
set hive.exec.compress.output=true;
--输出结果的压缩格式(下面示例是snappy)
set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.SnappyCodec;

2、ORC
若一张表的文件类型是ORC,若需要对该表进行压缩,需要在建表语句中声明压缩格式如下:

create table orc_table
(column_specs)
stored as orc
tblproperties("orc.compredd"="snappy");

3、Parquet
若一张表的文件类型为Parquet,若需要对该表数据进行压缩,需在建表语句中声明压缩格式如下:

create table Parquet_table
(column_specs)
stored as parquet
tblproperties("parquet.compression"="snappy");
1.3.2 计算过程中使用压缩

1、单个MR的中间结果进行压缩
单个MR的中间结果是指Mapper输出的数据,对其进行压缩可降低shuffle阶段的网络IO,可通过以下参数进行配置:

--开启MapReduce中间数据压缩功能
set mapreduce.map.output.compress=true;

--设置MapReduce中间数据的压缩方式(下面以snappy为例)
set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec;

2、单条SQL语句的中间结果进行压缩
单条SQL语句的中间结果是指,两个MR(一条SQL语句可能需要通过MR进行计算)之间的临时数据,可通过以下参数进行配置:

--是否对两个MR之间的临时数据进行压缩
set hive.exec.compress.intermediate=true;
--压缩格式
set hive.intermediate.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;

2、企业级调优

2.1 计算资源配置

到此学习的计算环境为HIve on MR。计算资源的调整主要包括Yarn和MR。

2.1.1 Yarn资源配置

1、Yarn配置说明
需要调整的Yarn的参数均与CPU、内存等资源有关,核心配置参数如下:
(1)yarn.nodemanager.resource.memory-mb
该参数的含义是,一个NodeManager节点分配给Container使用的内存。该参数的配置,取决于NodeManager所在节点的总内存容量和该节点运行的其他服务的数量。
(2)yarn.nodemanager.resource.cpu-vcores
该参数的含义是,一个NodeManager节点分配给Container使用的CPU核数。该参数的配置,同样取决于NodeManager所在节点的总CPU核数和该节点运行的其他服务。
(3)yarn.scheduler.maximum-allocation-mb
该参数的含义是,单个Container能够使用的最大内存。
(4)yarn.scheduler.minimum-allocation-mb
该参数的含义是,单个Container能够使用的最小内存。

2.1.2 MapReduce资源配置

MapReduce资源配置主要包括Map Task的内存和CPU核数,以及Reduce Task的内存和CPU核数。核心配置参数如下:
1、mapreduce.map.memory.mb
该参数的含义是,单个Map Task申请的container容器内存大小,其默认值为1024。该值不能超出yarn.scheduler.maximum-allocation-mb和yarn.scheduler.minimum-allocation-mb规定的范围。

2、mapreduce.map.cpu.vcores
该参数的含义是,单个Map Task申请的container容器cpu核数,其默认值为1。该值一般无需调整。

3、mapreduce.reduce.memory.mb
该参数的含义是,单个Reduce Task申请的container容器内存大小,其默认值为1024。该值同样不能超出yarn.scheduler.maximum-allocation-mb和yarn.scheduler.minimum-allocation-mb规定的范围。

4、mapreduce.reduce.cpu.vcores
该参数的含义是,单个Reduce Task申请的container容器cpu核数,其默认值为1。该值一般无需调整。

风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。