hive: 由 Facebook 开源用于解决海量结构化日志的数据统计工具。

Hive 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类 SQL 查询功能。
优点:
缺点:
Hive数据可区分为表数据和元数据,表数据我们都知道是表中的数据,而元数据是用来存储表的名字、列、表分区以及属性
Hive是基于Hadoop分布式文件存储的,它的数据存储在HDFS中。现在我们介绍Hive中常见的数据导入方式
#1.演示从本地装载数据到hive #1.1创建表 create table student(id string, name string) row format delimited fields terminated by '\t'; #1.2加载本地的文件到hive load data local inpath '/root/student.txt' into table default.student; #default.test 数据库.表名 也可直接表名 #2.演示加载HDFS文件到hive中 #2.1 将文件上传到HDFS根目录 dfs -put /root/student.txt /; #2.2加载HDFS上的数据 load data inpath '/student.txt' into table test.student; #3.加载数据覆盖表中原有的数据 #3.1上传文件到HDFS中 dfs -put /root/student.txt /; #将文件装载到表下 文件就相当于Windows中的剪切操作 #3.2加载数据覆盖表中原有数据 load data inpath '/student.txt' overwrite into table test.student; #4.查询表 select * from student;
#通过查询语句向表中插入数据(insert) #1.1创建表 create table student_par(id int,name String) row format delimited fields terminated by '\t'; #1.2通过insert插入数据 insert into table student_par values(1,'zhangsan'),(2,'lisi');
用户接口
CLI(command-line interface)、JDBC/ODBC(jdbc 访问 hive)、WEBUI(浏览器访问 hive)
元数据
元数据包括:表名、表所属的数据库(默认是 default)、表的拥有者、列/分区字段、表的类型(是否是外部表)、表的数据所在目录等
Hadoop
使用 HDFS 进行存储,使用 MapReduce 进行计算。
驱动器:Driver
(1)解析器(SQL Parser):将 SQL 字符串转换成抽象语法树 AST,这一步一般都用第三方工具库完成,比如 antlr;对 AST 进行语法分析,比如表是否存在、字段是否存在、SQL语义是否有误。
(2)编译器(Physical Plan):将 AST 编译生成逻辑执行计划。
(3)优化器(Query Optimizer):对逻辑执行计划进行优化。
(4)执行器(Execution):把逻辑执行计划转换成可以运行的物理计划。对于 Hive 来说,就是 MR/Spark。
这是默认的文件格式。数据不会压缩处理,磁盘开销大,数据解析开销也大。
SequenceFile
这是HadooAPI提供的一种二进制文件支持,以二进制的形式序列化到文件中。
这种格式是行列存储结构的存储方式。
Optimized Row Columnar ORC文件格式是一种Hadoop生态圈中的列式存储格式。
ORC的优势:
ORC文件格式是以二进制方式存储的,所以是不可直接读取的。
将HQL转换成MapReduce程序。
简单来说Hive就是一个查询引擎。当Hive接受到一条SQL语句会执行如下操作:
Hive展现的MapReduce任务设计到组件有:
Hive支持两种数据类型,一种原子数据类型、还有一种叫复杂数据类型。
| 基本数据类型 | ||
|---|---|---|
| 类型 | 描述 | 示例 |
| TINYINT | 1字节有符合整数 | 1 |
| SMALLINT | 2字节有符号整数 | 1 |
| INT | 4字节有符号整数 | 1 |
| BIGINT | 8字节有符号整数 | 1 |
| FLOAT | 4字节单精度浮点数 | 1.0 |
| DOUBLE | 8字节双精度浮点数 | 1.0 |
| BOOLEAN | true/false | true |
| STRING | 字符串 | “hive”,‘hive’ |
Hive类型中的String数据类型类似于MySQL中的VARCHAR。该类型是一个可变的字符串。
Hive支持数据类型转换,Hive是用Java编写的,所以数据类型转换规则遵循Java :
隐式转换 --> 小转大
强制转换 --> 大传小
| 类型 | 描述 | 示例 |
|---|---|---|
| ARRAY | 有序的字段。字符类型必须相同 | ARRAY(1,2) |
| MAP | 无序的键值对。建的类型必须是原子的,值可以是任何类型。 | Map(‘a’,1,‘b’,2) |
| STRUCT | 一组命名的字段。字段类型可以不同 | STRUCT(‘a’,1,1,0) |