返回顶部
首页 > 资讯 > 数据库 >hadoop+hbase+zookeeper+spark+p
  • 480
分享到

hadoop+hbase+zookeeper+spark+p

2024-04-02 19:04:59 480人浏览 薄情痞子
摘要

排错日志:解决办法:可能是修改 机器名导致的,修改hosts,写入hostname和IP,然后,try it agin!解决办法:当引入hadoop-common-2.2.0.jar包进行二次开发,比如读写

排错日志


    • 解决办法:可能是修改 机器名导致的,修改hosts,写入hostname和IP,然后,try it agin!

    • 解决办法:



    • 当引入hadoop-common-2.2.0.jar包进行二次开发,比如读写hdfs文件时,初次运行报错。


      java.io.IOException: No FileSystem for scheme: hdfs
              at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:2421)
      at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2428)

              at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:88)

              at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2467)

              at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2449)

              at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:367)

              at FileCopyToHdfs.readFromHdfs(FileCopyToHdfs.java:65)

              at FileCopyToHdfs.main(FileCopyToHdfs.java:26)


      这是因为该包下默认的core-default.xml没有配置如下属性:


      <property>
      <name>fs.hdfs.impl</name>
      <value>org.apache.hadoop.hdfs.DistributedFileSystem</value>
      <description>The FileSystem for hdfs: uris.</description>
      < /property>


      添加完后,问题解决。
      建议下载hadoop-2.2.0源码,在源码修改core-default.xml文件后再编译打包,再在二次开发的工程引入新的jar包。




    • Http://www.cnblogs.com/tangtianfly/p/3491133.html

    • http://www.cnblogs.com/tangtianfly/p/3491133.html

    • http://blog.csdn.net/u013281331/article/details/17992077

    • 上属性指定fs.hdfs.impl的实现类。

    • 解决办法:


    • 时间不同步

    • su root

    • ntpdate 133.100.11.8

    • cd /usr/local/HBase/bin/

    • ./hbase-daemon.sh start regionserver

    • 解决办法:


    • 打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。

      出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -fORMat),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

    • 解决办法:


    • 1.检查防火墙和selinux

      2.hosts里不要有127.0.0.1指向机器名的解析存在,如“127.0.0.1 localhost”。



    • 解决办法:


    • 是因为hbase和hadoop里都有这个jar包,选择其一移除即可。



    • 解决办法:


    • 原来是Hadoop在刚启动的时候,还处在安全模式造成的。

      [coder@h2 hadoop-0.20.2]$ bin/hadoop dfsadmin -safemode get
      Safe mode is ON
      [coder@h2 hadoop-0.20.2]$

        可等Hadoop退出安全模式后再执行HBase命令,或者手动退出Hadoop的安全模式

      [coder@h2 hadoop-0.20.2]$ bin/hadoop dfsadmin -safemode leaveSafe mode is OFF
      [coder@h2 hadoop-0.20.2]$



      cd /usr/local/hadoop2/bin

      ./hadoop dfsadmin -safemode leave
    • 解决办法:


    •  <property>

          <name>ZooKeeper.znode.parent</name>

          <value>/usr/local/hbase/hbase_tmp/hbase</value>

      </property>





    • 解决办法:


    • ./stop-all.sh

      hadoop namenode -format

      rm -rf /home/hadoop/tmp/dfs

      ./start-all.sh





      rm -rf /home/hadoop/tmp

      rm -rf /home/hadoop/dfs_data

      rm -rf /home/hadoop/pids

      rm -rf /home/hadoop/dfs_name

      cd /usr/local/hadoop2/bin/

      ./hadoop namenode -format

    • closing ipc connection to master.kaiser.com/192.168.0.60:8020:  Connection refused

      Call From master.kaiser.com/192.168.0.60 to master.kaiser.com:8020 failed on connection exception: java.net.ConnectException:Connection refused



      log:



      2014-09-03 13:50:39,029 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /home/hadoop/dfs_name/in_use.lock acquired by nodename 7582@master.kaiser.com

      2014-09-03 13:50:39,032 WARN org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Encountered exception loading fsp_w_picpath

      java.io.IOException: NameNode is not formatted.

      2014-09-03 13:50:39,141 FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join

      java.io.IOException: NameNode is not formatted.


    • hadoop.hbase.MasterNotRunningException: The node /hbase is not in ZooKeeper. It should have been written by the master.Check the value configured in 'zookeeper.znode.parent'. There could be a mismatch with the one configured in the master.


    • 2013-04-13 17:13:17,374 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:13:27,377 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:13:37,386 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:13:47,393 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:13:57,395 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:14:07,409 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...

    • 执行hbase程序orshell命令出现如下提示(./hbase shell):

      SLF4J: Class path contains multiple SLF4J bindings.

      SLF4J: Found binding in [jar:file:/usr/local/hbase-0.92.1/lib/slf4j-log4j12-1.5.8.jar!/org/slf4j/impl/StaticLoggerBinder.class]

      SLF4J: Found binding in [jar:file:/usr/local/hadoop2-1.0.3/lib/slf4j-log4j12-1.4.3.jar!/org/slf4j/impl/StaticLoggerBinder.class]

      SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.


    • WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server: tmaster.kaiser.com/192.168.0.63:9000


    • 2014-06-18 20:34:59,622 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <reGIStering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000

      java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/hdfs/data: namenode clusterID = CID-af6f15aa-efdd-479b-bf55-77270058e4f7; datanode clusterID = CID-736d1968-8fd1-4bc4-afef-5c72354c39ce

      at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:472)

      at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:225)

      at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:249)

      at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:929)

      at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:900)

      at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:274)

      at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220)

      at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:815)

      at java.lang.Thread.run(Thread.java:744)

       

      从日志中可以看出,原因是因为datanode的clusterID 和 namenode的clusterID 不匹配。


    • regionserver.HRegionServer: Failed deleting my ephemeral node








    • java.io.IOException: No FileSystem for scheme: hdfs


    • hadoop:pache.hadoop.hdfs.server.blockmanagement.DatanodeManager: Unresolved datanode registration: hostname cannot be resolved

      Hbase:Will not attempt to authenticate using SASL (unknown error)






hadoop+hbase+zookeeper+spark+p


您可能感兴趣的文档:

--结束END--

本文标题: hadoop+hbase+zookeeper+spark+p

本文链接: https://lsjlt.com/news/44231.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • hadoop+hbase+zookeeper+spark+p
    排错日志:解决办法:可能是修改 机器名导致的,修改hosts,写入hostname和IP,然后,try it agin!解决办法:当引入hadoop-common-2.2.0.jar包进行二次开发,比如读写...
    99+
    2024-04-02
  • hadoop ha+zookeeper+hbase
    一、环境1、系统:Red Hat Enterprise Linux Server release 6.42、所需软件包    hadoop-2.2.0.tar.gz ...
    99+
    2024-04-02
  • hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安装
    创建3台虚拟机 主机为桌面版 其他为迷你版本 ******************************常用命令、进程名称****************************启动集群命令: start-all.sh...
    99+
    2017-03-10
    hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安装
  • Hadoop、Spark、HBase与Redis的适用性讨论(二):HBase
    接下来说说HBase。对此,经常听到的一个说法是:HBase只适合于支撑离线分析型应用,特别是做为MapReduce任务的后台数据源。持这个观点不少,甚至在国内一个响当当的电信设备提供商中,HBase也是被...
    99+
    2024-04-02
  • hadoop+hbase+zookeeper完全分布安装(2)
    一 安装准备     上一篇我们安装完hadoop成功后就可以接着安装hbase了。根据上篇的对应表我们选择下载合适版本的hbase.本案例选择的版本是hbase-0.94.1...
    99+
    2024-04-02
  • hadoop+hbase+zookeeper完全分布安装(1)
    版本选择选择 Hadoop 版本对HBase部署很关键。下表显示不同HBase支持的Hadoop版本信息。基于HBase版本,应该选择合适的Hadoop版本。HBase-0.92.xHBase-0.94.x...
    99+
    2024-04-02
  • HADOOP/HBASE/SPARK修改PID文件位置
    当不修改HADOOP/HBASE/SPARK的PID文件位置时,系统默认会把PID文件生成到/tmp目录下,但是/tmp目录在一段时间后会被删除,所以以后当我们停止HADOOP/HBASE/SPARK时,会...
    99+
    2024-04-02
  • Hadoop HBase
    一、概述: 1、定义:HBase是Google Bigtable的开源山寨版本。是建立的HDFS之上,提供高可靠性、高性能、列存储、可伸缩、实时、随机读写的数据库系统。   &...
    99+
    2024-04-02
  • Hadoop + Hbase + Zookeeper安装及配置完整版(Hadoop1系列)
    第一步:安装Hadoop集群1、搭建环境所需介质准备   Enterprise-R5-U4-Server-x86_64-dvd.iso   hadoop-1.1.1....
    99+
    2024-04-02
  • Hadoop+HBase+ZooKeeper分布式集群环境搭建步骤
    目录一、环境说明2.1 安装JDK2.2 添加Hosts映射关系2.3 集群之间SSH无密码登陆三、Hadoop集群安装配置3.1 修改hadoop配置3.2 启动hadoop集群四...
    99+
    2024-04-02
  • zookeeper和hbase安装
    一、zookeeper1、/etc/profileHADOOP_PREFIX=/opt/hadoopJAVA_HOME=/opt/jdk18ZOOKEEPER_HOME=/opt/zookeeperHBAS...
    99+
    2024-04-02
  • hbase 0.90.4 + zookeeper 3.3.3 hbase 启动失败
    报错:Couldnt start ZK at requested address of 2181, instead got: 2182. Aborting. Why Because clients (eg ...
    99+
    2024-04-02
  • Spark怎么写HBASE
    这篇文章将为大家详细讲解有关Spark怎么写HBASE,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。package com.iesol.high_frequencyimport java.io.Buffe...
    99+
    2023-06-03
  • Hadoop hive sqoop zookeeper hb
    6、问题及解决方案1. 问题描述:WARN util.NativeCodeLoader: Unable to load native-hadoop library foryour platform… usi...
    99+
    2024-04-02
  • hadoop之Hbase安装
    说明:hadoop安装:http://kexl908.blog.51cto.com/605006/812494Hbase接上面的hadoop安装环境之后继续安装,环境 IP 不变...
    99+
    2024-04-02
  • 大数据Hadoop之——Spark SQL+Spark Streaming
    目录一、Spark SQL概述二、SparkSQL版本1)SparkSQL的演变之路2)shark与SparkSQL对比3)SparkSession三、RDD、DataFrames和DataSet1)三者关联关系1)RDD1、核心概念2、...
    99+
    2019-06-08
    大数据Hadoop之——Spark SQL+Spark Streaming
  • spark与hbase怎么用
    小编给大家分享一下spark与hbase怎么用,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!package hgs.spark.hbaseimport org.apache.spark.SparkCon...
    99+
    2023-06-02
  • hadoop hbase无法启动
    启动hbase报错 could only be replicated to 0 nodes instead of 1hmaster启动不起来 查了很多类似的问题,大家处理的方式大多比较暴力。 &n...
    99+
    2024-04-02
  • 《Hadoop The Definitive Guide》ch12 HBase
    ...
    99+
    2024-04-02
  • Hadoop数据存储—Hbase
     大家都知道Hadoop是一个数据库,其实说的的就是Hbase。它和我们平常理解的关系型数据库有什么区别呢?1.它是NoSQL的,它没有SQL的接口,有自己的一套API。2.关系型数据库可以做汇总...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作