1.首先安装jdk和Hadoop环境,参考Hadoop单机安装_letterss的博客-CSDN博客
2.下载Hive安装包,下载地址:https://www.apache.org/dyn/closer.cgi/hive/
将下载的安装包上传到/data/hive目录,并解压
tar -zxvf apache-hive-2.3.9-bin.tar.gz
配置hive环境
vi /etc/profile
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_64export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport HADOOP_HOME=/data/hadoop/hadoop-2.10.1export HIVE_HOME=/data/hive/apache-hive-2.3.9-binexport PATH=.:$JAVA_HOME/bin:$HADOOP_HOME:$HIVE_HOME/bin:$PATH
更新环境变量
source /etc/profile
配置完成可输入hive --version 查看版本
修改hive配置文件,进去 /data/hive/apache-hive-2.3.9-bin/conf 路径下,创建hive-site.xml文件
vim hive-site.xml
将MySQL的驱动mysql-connector-java-5.1.40-bin.jar添加到hive安装目录的lib下
元数据库初始化,切换到hive的bin目录下 执行
./schematool -dbType mysql -initSchema
hive的启动,运行hive之前要确保hadoop集群启动和MySQL服务启动正常开启的情况下由于配置过环境变量,可以直接在命令行中输入hive 本地启动命令 hive
测试hive,输入以下建表语句
show databases;
create database test_work; //新建一个测试库
use test_work;
create table test(
id int
,name string
);
insert into table course values(1,"wangsheng");
以上正常执行,表明hive已经安装和配置完成。可去hdfs图形界面上查看建的表,访问hadoopIP:50070