赞
踩
hbase没有这张表,我其实已经删除hdfs里面的数据,在hive的元数据里面还保存有这个表的元数据
那么就删除hive里面的这个表的元数据信息
重新建hbase表
还是报错
查看 tailf hbase-root-regionserver-sfbg101.log
报错
在hase-site.xml里面配置错误
把:改成逗号,分发各个节点
然后重启hbase集群
这次查看tailf hbase-root-regionserver-sfbg101.log 没有报错信息
tailf hive.log 查看hive日志
突然想起,hbase存在在hdfs上的元数据删除掉了,那么存在zookeeper里面的元数据没有删除掉
先试试吧zookeeper里面的元数据删除试试
deleteall /hbase
重启hbase集群,重启hvie,创建hbase映射表,成功
向hbase插入数据
由于配置hadoop的ha,所以删除hadoop的data和log目录,但是之前配置过集群,所以还存在元数据保存在zookeeper里面,但是hdfs里面的hbase的数据都删除掉了,重新生成的是新的数据,且又增加了两个节点,所以报错,最后把这个zookeeper里面删除掉了之后,就可以成功了
hive on spark 可以配置hive的日志文件,进行查看
这个刚开始出现的问题是提示sfbg101的16020端口不在线上就是它找不到,至于为啥找不到
不知道,查看16020端口,lsof -i:16020就可以查看对应的进程号,jps查看发现是HRegionServer
的端口,所以是启动的,最后想了想,应该是元数据的问题。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。