当前位置:   article > 正文

大数据技术之Hadoop-Apache Hive分布式SQL计算平台_hivesql 开发平台

hivesql 开发平台

一、Apache Hive 概述

1、分布式SQL计算

对数据进行统计分析,SQL是目前最为方便的编程工具。

大数据体系中充斥着非常多的统计分析场景
所以,使用SQL去处理数据,在大数据中也是有极大的需求的。

MapReduce支持程序开发(Java、Python等)但不支持SQL开发

2、分布式SQL计算 - Hive

Apache Hive是一款分布式SQL计算的工具, 其主要功能是:

  • 将SQL语句 翻译成MapReduce程序运行

基于Hive为用户提供了分布式SQL计算的能力
写的是SQL、执行的是MapReduce

3、为什么使用Hive

 使用Hadoop MapReduce直接处理数据所面临的问题

  • 人员学习成本太高 需要掌握java、Python等编程语言
  • MapReduce实现复杂查询逻辑开发难度太大

使用Hive处理数据的好处

  • 操作接口采用类SQL语法,提供快速开发的能力(简单、容易上手)
  • 底层执行MapReduce,可以完成分布式海量数据的SQL处理

二、模拟实现Hive功能

1、元数据管理

假设有如下结构化文本数据存储在HDFS中。

假设要执行: SELECT city, COUNT(*) FROM t_user GROUP BY city;
对这个SQL翻译成MapReduce程序,会出现哪些困难?

针对SQL:SELECT city, COUNT(*) FROM t_user GROUP BY city;
若翻译成MapReduce程序,有如下问题:

  • 数据文件在哪里?
  • 使用什么符号作为列的分隔符?
  • 哪些列可以作为city使用?
  • city列是什么类型的数据?

所以,我们可以总结出来第一个点, 即构建分布式SQL计算, 需要拥有: 

元数据管理功能,即:

  • 数据位置
  • 数据结构
  • 等对数据进行描述

进行记录

2、解析器 

解决了元数据管理后,我们还有一个至关重要的步骤, 即完成SQLMapReduce转换的功能。

我们称呼它为:SQL解析器,期待它能做到:

  • SQL分析
  • SQL到MapReduce程序的转换
  • 提交MapReduce程序运行并收集执行结果

当拥有这2个组件, 基本上分布式SQL计算的能力就实现了。

3、Hive架构 

 Apache Hive2大主要组件就是:SQL解析器以及元数据存储, 如下图。

三、Hive基础架构

 1、Hive组件

  • 元数据存储 

通常是存储在关系数据库如 mysql/derby中。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。 

-- Hive提供了 Metastore 服务进程提供元数据管理功能

  • Driver驱动程序,包括语法解析器、计划编译器、优化器、执行器

完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有执行引擎调用执行。
这部分内容不是具体的服务进程,而是封装在Hive所依赖的Jar文件即Java代码中。

  • 用户接口

包括 CLI、JDBC/ODBC、WebGUI。其中,CLI(command line interface)为shell命令行;Hive中的Thrift服务器允许外部客户端通过网络与Hive进行交互,类似于JDBC或ODBC协议。WebGUI是通过浏览器访问Hive。
-- Hive提供了 Hive Shell、 ThriftServer等服务进程向用户提供操作接口

四、Hive部署

1、规划

我们知道Hive是单机工具后,就需要准备一台服务器供Hive使用即可。
同时Hive需要使用元数据服务,即需要提供一个关系型数据库,我们也选择一台服务器安装关系型数据库即可。

2、步骤1:安装MySQL数据库

  1. # 更新密钥
  2. rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022
  3. # 安装Mysql yum库
  4. rpm -Uvh http://repo.mysql.com//mysql57-community-release-el7-7.noarch.rpm
  5. # yum安装Mysql
  6. yum -y install mysql-community-server
  7. # 启动Mysql设置开机启动
  8. systemctl start mysqld
  9. systemctl enable mysqld
  10. # 检查Mysql服务状态
  11. systemctl status mysqld
  12. # 第一次启动mysql,会在日志文件中生成root用户的一个随机密码,使用下面命令查看该密码
  13. grep 'temporary password' /var/log/mysqld.log
  14. # 修改root用户密码
  15. mysql -u root -p -h localhost
  16. Enter password:
  17. mysql> ALTER USER 'root'@'localhost' IDENTIFIED BY 'Root!@#$';
  18. # 如果你想设置简单密码,需要降低Mysql的密码安全级别
  19. set global validate_password_policy=LOW; # 密码安全级别低
  20. set global validate_password_length=4; # 密码长度最低4位即可
  21. # 然后就可以用简单密码了(课程中使用简单密码,为了方便,生产中不要这样)
  22. ALTER USER 'root'@'localhost' IDENTIFIED BY 'root';
  23. /usr/bin/mysqladmin -u root password 'root'
  24. grant all privileges on *.* to root@"%" identified by 'root' with grant option;
  25. flush privileges;

 3、步骤2:配置Hadoop

Hive的运行依赖于Hadoop(HDFS、MapReduce、YARN都依赖)
同时涉及到HDFS文件系统的访问,所以需要配置Hadoop的代理用户
即设置hadoop用户允许代理(模拟)其它用户

配置如下内容在Hadoop的core-site.xml中,并分发到其它节点,且重启HDFS集群

 4、步骤3:下载解压Hive

  1. 切换到hadoop用户
  2. su - hadoop
  3. 下载Hive安装包:
  4. http://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz
  5. 解压到node1服务器的:/export/server/
  6. tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /export/server/
  7. 设置软连接
  8. ln -s /export/server/apache-hive-3.1.3-bin /export/server/hive

 5、步骤4:提供MySQL Driver

  1. 下载MySQL驱动包:
  2. https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.34/mysql-connector-java-5.1.34.jar
  3. 将下载好的驱动jar包,放入:Hive安装文件夹的lib目录内
  4. mv mysql-connector-java-5.1.34.jar /export/server/hive/lib/

 6、步骤5:配置Hive

  1. 在Hive的conf目录内,新建hive-env.sh文件,填入以下环境变量内容:
  2. export HADOOP_HOME=/export/server/hadoop
  3. export HIVE_CONF_DIR=/export/server/hive/conf
  4. export HIVE_AUX_JARS_PATH=/export/server/hive/lib

在Hive的conf目录内,新建hive-site.xml文件,填入以下内容:

  1. <configuration>
  2. <property>
  3. <name>javax.jdo.option.ConnectionURL</name>
  4. <value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  5. </property>
  6. <property>
  7. <name>javax.jdo.option.ConnectionDriverName</name>
  8. <value>com.mysql.jdbc.Driver</value>
  9. </property>
  10. <property>
  11. <name>javax.jdo.option.ConnectionUserName</name>
  12. <value>root</value>
  13. </property>
  14. <property>
  15. <name>javax.jdo.option.ConnectionPassword</name>
  16. <value>123456</value>
  17. </property>
  18. <property>
  19. <name>hive.server2.thrift.bind.host</name>
  20. <value>node1</value>
  21. </property>
  22. <property>
  23. <name>hive.metastore.uris</name>
  24. <value>thrift://node1:9083</value>
  25. </property>
  26. <property>
  27. <name>hive.metastore.event.db.notification.api.auth</name>
  28. <value>false</value>
  29. </property>
  30. </configuration>

 7、步骤6:初始化元数据库

支持,Hive的配置已经完成,现在在启动Hive前,需要先初始化Hive所需的元数据库。

  1. 在MySQL中新建数据库:hive
  2. CREATE DATABASE hive CHARSET UTF8;
  3. 执行元数据库初始化命令:
  4. cd /export/server/hive
  5. bin/schematool -initSchema -dbType mysql -verbos
  6. # 初始化成功后,会在MySQL的hive库中新建74张元数据管理的表。

8、步骤7:启动Hive(使用Hadoop用户)

  1. 确保Hive文件夹所属为hadoop用户
  2. 创建一个hive的日志文件夹:
  3. mkdir /export/server/hive/logs
  4. 启动元数据管理服务(必须启动,否则无法工作)
  5. 前台启动:bin/hive --service metastore
  6. 后台启动:nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
  7. 启动客户端,二选一(当前先选择Hive Shell方式)
  8. Hive Shell方式(可以直接写SQL): bin/hive
  9. Hive ThriftServer方式(不可直接写SQL,需要外部客户端链接使用): bin/hive --service hiveserver2

五、Hive初体验 

1、Hive体验

 首先,确保启动了Metastore服务。

  1. 可以执行:bin/hive,进入到Hive Shell环境中,可以直接执行SQL语句。
  2. 创建表
  3. CREATE TABLE test(id INT, name STRING, gender STRING);
  4. 插入数据
  5. INSERT INTO test VALUES(1, ‘王力红’, ‘男’), (2, ‘周杰轮’, ‘男’), (3, ‘林志灵’, ‘女’);
  6. 查询数据
  7. SELECT gender, COUNT(*) AS cnt FROM test GROUP BY gender;
  • 验证Hive的数据存储

 Hive的数据存储在HDFS的:/user/hive/warehouse中

  • 验证SQL语句启动的MapReduce程序

打开YARN的WEB UI页面查看任务情况:http://node1:8088

六、Hive客户端

1、HiveServer2服务

在启动Hive的时候,除了必备的Metastore服务外,我们前面提过有2种方式使用Hive

  • 方式1: bin/hive 即Hive的Shell客户端,可以直接写SQL
  • 方式2: bin/hive --service hiveserver2      

        后台执行脚本:nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

  •  bin/hive --service metastore,启动的是元数据管理服务
  • bin/hive --service hiveserver2,启动的是HiveServer2服务

HiveServer2是Hive内置的一个ThriftServer服务,提供Thrift端口供其它客户端链接
可以连接ThriftServer的客户端有:

  • Hive内置的 beeline客户端工具(命令行工具)
  • 第三方的图形化SQL工具,如DataGrip、DBeaver、Navicat等

Hive的客户端体系如下

2、启动 

在hive安装的服务器上,首先启动metastore服务,然后启动hiveserver2服务。

  1. #先启动metastore服务 然后启动hiveserver2服务
  2. nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
  3. nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

3、beeline 

在node1上使用beeline客户端进行连接访问。需要注意hiveserver2服务启动之后需要稍等一会才可以对外提供服务。
Beeline是JDBC的客户端,通过JDBC协议和Hiveserver2服务进行通信,协议的地址是:jdbc:hive2://node1:10000

  1. [root@node1 ~]# /export/server/hive/bin/beeline
  2. Beeline version 3.1.2 by Apache Hive
  3. beeline> ! connect jdbc:hive2://node1:10000
  4. Connecting to jdbc:hive2://node1:10000
  5. Enter username for jdbc:hive2://node1:10000: root
  6. Enter password for jdbc:hive2://node1:10000:
  7. Connected to: Apache Hive (version 3.1.2)
  8. Driver: Hive JDBC (version 3.1.2)
  9. Transaction isolation: TRANSACTION_REPEATABLE_READ
  10. 0: jdbc:hive2://node1:10000>

2、Hive第三方客户端

DataGrip、Dbeaver、SQuirrel SQL Client等
可以在Windows、MAC平台中通过JDBC连接HiveServer2的图形界面工具;
这类工具往往专门针对SQL类软件进行开发优化、页面美观大方,操作简洁,更重要的是SQL编辑环境优雅;
SQL语法智能提示补全、关键字高亮、查询结果智能显示、按钮操作大于命令操作;

3、Hive可视化工具客户端 

3.1、DataGrip

DataGrip是由JetBrains公司推出的数据库管理软件,DataGrip支持几乎所有主流的关系数据库产品,如DB2、Derby、MySQL、Oracle、SQL Server等,也支持几乎所有主流的大数据生态圈SQL软件,并且提供了简单易用的界面,开发者上手几乎不会遇到任何困难。

3.2、DataGrip使用教程

 step1windows创建工程文件夹

step2:DataGrip中创建新Project 

 lstep3:关联本地工程文件夹

step4:DataGrip连接Hive

step5:配置Hive JDBC连接驱动

step6:返回,配置Hiveserver2服务连接信息

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/790759
推荐阅读
相关标签
  

闽ICP备14008679号