当前位置: 代码迷 >> 综合 >> 解决问题:在格式化Hadoop之后无法使用HBase和Kafka
  详细解决方案

解决问题:在格式化Hadoop之后无法使用HBase和Kafka

热度:23   发布时间:2024-02-22 13:16:02.0

目录

    • 抛出问题:
    • 查找问题:
    • 解决问题:
    • 测试结果:

抛出问题:

在初学Hadoop的时候,由于自己手残,把Hadoop格式化了,结果导致很多数据丢失,hbase和kafka不能正常使用,如图所示:
在这里插入图片描述

查找问题:

于是我将hbase全部重新安装,结果还是不能解决。后来经过高人指点,找出了出现这种问题的原因:
因为zookeeper上存储了hbase和kafka的元数据,hdfs存储了hbase数据本身,所以重新安装和格式化Hadoop没有作用

解决问题:

解决方案是,通过zookeeper的客户端命令,将hbase中的之前创建的表和kafka之前创建的topic给删除了就可以。
进入到/opt/Hadoop/zookeeper/bin目录下:

zkCli.sh 
[zk: localhost:2181(CONNECTED) 3] ls /hbase/table
[hbase:meta, hbase:namespace, weblogs, weblog]

将之前创建的weblogs这个表给删除

rmr /hbase/table/weblogs

同理,也需要将kafka的topics给删除

ls /brokers/topics
[weblogs, __consumer_offsets]
rmr /brokers/topics/weblogs

测试结果:

删除过之后在重新创建刚才的表,就可以创建了
创建hbase中的weblogs表

create 'weblogs','info'

创建kafka中的topics

bin/kafka-topics.sh --create --zookeeper node1:2181,node2:2181,node3:2181 --replication-factor 1 --partitions 1 --topic weblogs

这样问题就解决了

总结:千万不要随便格式化Hadoop!!!!!!


以上内容仅供参考学习,如有侵权请联系我删除!
如果这篇文章对您有帮助,左下角的大拇指就是对博主最大的鼓励。
您的鼓励就是博主最大的动力!