新网创想网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章主要介绍“hive-0.12的安装步骤”,在日常操作中,相信很多人在hive-0.12的安装步骤问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”hive-0.12的安装步骤”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
创新互联公司服务项目包括达拉特网站建设、达拉特网站制作、达拉特网页制作以及达拉特网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,达拉特网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到达拉特省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!
(安装会有版本问题 hadoop1.0版本以上的请安装hive-0.90测试
hadoop2.0以上请安装hive-0.12.0或者最新版测试)
hive-0.9.0 下载地址:http://pan.baidu.com/s/1rj6f8
hive-0.12.0下载地址:http://mirrors.hust.edu.cn/apache/hive/hive-0.12.0/
#cd /usr/local
#tar -zxvf hive-0. 12.0.tar.gz
#mv hive-0. 12.0 hive
修改/etc/profile文件。
#vi /etc/profile
增加
export HIVE_HOME=/hadoop/hadoop/hive
修改
exportPATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HIVE_HOME/bin
保存退出
#source /etc/profile
l cd $HIVE_HOME/conf
l mv hive-env.sh.template hive-env.sh
l mv hive-default.xml.template hive-site.xml
export JAVA_HOME=/usr/local/jdk
export HIVE_HOME=/home/hadoop/hive
export HADOOP_HOME=/home/hadoop/hadoop2
启动hive时候,记得先启动hadoop(因为hive是操作hdfs中的数据)
jps命令查看当前启动的java程序
#hive
[FatalError] hive-site.xml:2002:16: The element type "value" must beterminated by the matching end-tag "".
2002
(在2002行第16字符那里:
hive>show tables;
此时还报错:
FAILED:Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask.java.lang.RuntimeException: Unable to instantiateorg.apache.hadoop.hive.metastore.HiveMetaStoreClient
最后将hive-site.xml 里面hive.metastore.schema.verification 的值改为 false后,就没出现错误了。
hive>create table test(idint,name string);
hive>quit;
方法一:观察:#hadoop fs -ls /user/hive
参数:hive.metastore.warehouse.dir
方法二:
http://cloud4:50070 如果配置成功,查看/user/hive就存在
l metastore是hive元数据的集中存放地。metastore默认使用内嵌的derby数据库作为存储引擎
l Derby引擎的缺点:一次只能打开一个会话
l 使用MySQL作为外置存储引擎,多用户同时访问
所以我们通常建议使用mysql,但是需要去配置
l #mysql -uroot -padmin
l mysql>create database hive;
l mysql>GRANT all ON hive.* TO root@'%' IDENTIFIED BY 'admin';
l mysql>flush privileges;
l mysql>set global binlog_format='MIXED'; (如果报错就不要管)
方法1:手动命令:(此处hive为数据库名)
alter database hive character set latin1
//hadoop0那么是hive所在的机子,要么是网关ip cloud4:本机;192.168.56.1网关ip
如果用hive的机子,也就是本机,需要在linux上安装mysql,看下面补充msql安装流程
不过好像如果是cloud4会show tables出错,改为localhost就好了!!!
1:直接输入#/hive/bin/hive的执行程序,
2:或者输入 #hive --service cli
l 分为本地与集群两种
我们可以通过mapred.job.tracker 来指明
设置方式:
hive > SET mapred.job.tracker=local
l 1、hive web界面的(端口号9999) 启动方式
#hive --service hwi &
用于通过浏览器来访问hive
http://hadoop0:9999/hwi/
l 2、hive 远程服务(端口号10000) 启动方式
#hive --service hiveserver &
l 基本数据类型
tinyint/smallint/int/bigint
float/double
boolean
string
• 复杂数据类型
Array/Map/Struct
• 没有date/datetime
l Hive的数据存储基于Hadoop HDFS
l Hive没有专门的数据存储格式
l 存储结构主要包括:数据库、文件、表、视图
l Hive默认可以直接加载文本文件(TextFile),还支持sequence file
l 创建表时,指定Hive数据的列分隔符与行分隔符,Hive即可解析数据
l 类似传统数据库的DataBase
l 默认数据库"default">
使用#hive命令后,不使用hive>use <数据库名>,系统默认的数据库。
可以显式使用hive> use default;
创建一个新库
hive > create database test_dw;
warehouse是在 hive-site.xml 中由 ${hive.metastore.warehouse.dir}指定的数据仓库的目录
我们可以把value修改为:/hive
l 每一个 Table 在 Hive 中都有一个相应的目录存储数据。例如,一个表 test,它在HDFS 中的路径为:/ warehouse/test。
l 所有的 Table 数据(不包括 ExternalTable)都保存在这个目录中。
l 删除表时,元数据与数据都会被删除
l 常用操作
l 创建数据文件t1.dat
l 创建表
l hive>create table t1 (key string);
l 加载数据
l hive>load data local inpath '/root/inner_table.dat' into table t1;
l 查看数据
l select * from t1
l select count(*) from t1
l 删除表 drop table t1
到此,关于“hive-0.12的安装步骤”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!