返回顶部
首页 > 资讯 > 数据库 >Hadoop+Hbase 安装配置实录
  • 957
分享到

Hadoop+Hbase 安装配置实录

2024-04-02 19:04:59 957人浏览 八月长安
摘要

生产环境:3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63) 注意:hostname设置为master/slave1/s

生产环境:

3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63)
注意:hostname设置为master/slave1/slave2
操作系统:rhel5.4 x86_64

master做为namenonde,将slave1和slave2做为datanode

1.在master:(在slave1和slave2上操作和以下相同)
vi /etc/hosts
192.168.0.61  master
192.168.0.62  slave1
192.168.0.63  slave2

2.用root操作

3.免密码登录
#ssh-keygen -t rsa #建立ssh目录,敲回车到底 ,这一步需要先在每台机器上执行。
在master上
#scp ~/.ssh/id_rsa.pub root@slave1:/root/.ssh/id_rsa.pub_m 将master上的密钥传到slave1的/home/hadoop
在slave1上
#cat /root/.ssh/id_rsa.pub_m >> ~/.ssh/authorized_keys
#chmod 644 ~/.ssh/authorized_keys

反复操作第3步,完成master<-->slave1 master<-->slave2的免密码登录
这样主节点和从节点之间就可以不用密码直接ssh访问,另外,在启动hadoop时需要master ssh master,
因此,在master的~/.ssh下,也执行下cat id_rsa.pub >> authorized_keys即可。

4.安装jdk到/usr/local下命名为jdk6
然后:
编辑三台机器的/etc/profile,增加如下内容
export JAVA_HOME=/usr/local/jdk6
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export HADOOP_HOME=/hadoop/hadoop
export HBase_HOME=/hadoop/hbase
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin

#vi /root/.bashrc
增加
export HADOOP_CONF_DIR=/hadoop/hadoop-config
export HBASE_CONF_DIR=/hadoop/hbase-config

5、防火墙
   各机器加入iptables策略:
#iptables -I INPUT -s 192.168.0.0/255.255.255.0 -j ACCPET
#service iptables save

-----------------------------------------
hadoop配置:

1.下载安装
#cd /hadoop
#wget Http://labs.renren.com/apache-mirror//hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz
#tar -zxvf hadoop-0.20.2.tar.gz
#ln -s hadoop-0.20.2 hadoop
    由于上述目录中hadoop的配置文件和hadoop的安装目录是放在一起的,这样一旦日后升级hadoop版本的时候所有的配置文件都会被覆盖,因 此将配置文件与安装目录分离,一

种比较好的方法就是建立一个存放配置文件的目录,/hadoop/hadoop-config/,然后将 /hadoop/hadoop/conf/目录中的core-site.xml,slaves,hadoop-env.sh,masters, hdfs-

site.xml,mapred-site.xml,这6个文件拷贝到 /hadoop/hadoop-config/目录中,并指定环境变量$HADOOP_CONF_DIR指向该目录。环境变量在/root/.bashrc 中设定。
#mkdir /hadoop/hadoop-config
#cd  /hadoop/hadoop/conf/
#cp core-site.xml slaves hadoop-env.sh masters hdfs-site.xml mapred-site.xml /hadoop/hadoop-config/


2.修改6个文件
masters:
master

slaves:
slave1
slave2

#切忌不要创建:/hadoop/hadoop/tmp
hadoop-env.sh:
export JAVA_HOME=/usr/local/jdk6
export HADOOP_PID_DIR=/hadoop/hadoop/tmp

core-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
   <name>fs.default.name</name>
   <value>hdfs://master:54310</value>
</property>
</configuration>

#切忌不要创建:/hadoop/hadoop/name
#mkdir /hadoop/hadoop/data
hdfs-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/hadoop/hadoop/name/</value>  #hadoop的name目录路径      
</property>
<property>
<name>dfs.data.dir</name>
<value>/hadoop/hadoop/data/</value>  #hadoop的data目录路径
</property>
<property>
   <name>dfs.replication</name>
   <value>3</value>      #指定 HDFS 中每个 Block 被复制的次数,起数据冗余备份的作用。在典型的生产系统中,这个数常常设置为3
</property>
</configuration>

mapred-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
   <name>mapred.job.tracker</name>
   <value>hdfs://master:54311/</value>
</property>
</configuration>


3、格式化namenode
#cd /hadoop/hadoop/bin
#./hadoop namenode -fORMat
#cd /hadoop
#scp -r ./* root@slave1:/hadoop/
#scp -r ./* root@slave2:/hadoop/
到slave1和slave2上,分别重做软链接
#cd /hadoop
#rm -rf hadoop
#ln -s hadoop-0.20.2 hadoop

4、启动所有hadoop守护进程
# ./start-all.sh
说明:
在bin/下面有很多启动脚本,可以根据自己的需要来启动。
* start-all.sh 启动所有的Hadoop守护。包括namenode, datanode, jobtracker, tasktrack
* stop-all.sh 停止所有的Hadoop
* start-mapred.sh 启动Map/Reduce守护。包括Jobtracker和Tasktrack
* stop-mapred.sh 停止Map/Reduce守护
* start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode
* stop-dfs.sh 停止DFS守护
[root@master bin]# jps
6813 NameNode
7278 Jps
7164 JobTracker
7047 SecondaryNameNode
出现4个这样的进程,且datanode没有error,同时访问ui正常才算成功。
ui:http://masterip:50070  --WEB UI for HDFS name node(s)
http://masterip:50030  --web UI for mapReduce job tracker(s)
http://slaveip:50060    --web UI for task tracker(s)

5、hdfs简单测试
#cd /hadoop/hadoop/bin
#./hadoop dfs -mkdir testdir
#./hadoop dfs -put /root/install.log testdir/install.log-dfs
将/root/install.log 存储到hdfs中的testdir中,重命名为install.log-dfs
#./hadoop dfs -ls
#./hadoop dfs -ls testdir


----------------------------------
1、hbase安装部署
#cd /hadoop
#wget http://apache.etoak.com//hbase/hbase-0.20.6/hbase-0.20.6.tar.gz
#tar -zxvf hbase-0.20.6.tar.gz
#ln -s hbase-0.20.6 hbase
#mkdir hbase-config
#cd /hadoop/hbase/conf/
#cp hbase-env.sh hbase-site.xml regionservers /hadoop/hbase-config/

2、配置文件修改
#mkdir /hadoop/hbase/tmp
#vim /hadoop/hbase-config/hbase-env.sh
增加
export JAVA_HOME=/usr/local/jdk6
export HBASE_MANAGES_ZK=true
export HBASE_PID_DIR=/hadoop/hbase/tmp

#vim hbase-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://master:54310/hbase</value> 注意主机名和端口号要与hadoop的dfs name的对应
</property>
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<property>
    <name>hbase.ZooKeeper.quorum</name>
    <value>master</value>
</property>
<property>
    <name>zookeeper.session.timeout</name>
    <value>60000</value>
</property>
<property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2222</value>
</property>
</configuration>

配置hbase服务器名称
#vi regionservers
slave1
slave2

3、复制hbase文件
在master上
#cd /hadoop
#scp -r  hbase-0.20.6 hbase-0.20.6.tar.gz hbase-config root@slave1:/hadoop/
#scp -r  hbase-0.20.6 hbase-0.20.6.tar.gz hbase-config root@slave2:/hadoop/
在slave1和slave2上,分别重做软链接
#cd /hadoop
#ln -s  hbase-0.20.6 hbase

4、测试
在master上启动
#cd /hadoop/hbase/bin
#./hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Version: 0.20.6, r965666, Mon Jul 19 16:54:48 PDT 2010
hbase(main):001:0> create 'test','data'
0 row(s) in 1.1920 seconds
hbase(main):002:0> list
test                                                                                                          
1 row(s) in 0.0200 seconds
hbase(main):003:0> quit


----------------------------------------------
总结
在安装hadoop-0.21.0+hbase-0.20.6过程中,出现:org.apache.hadoop.hbase.masternotrunningexception异常。
使用hadoop-0.20.2+hbase-0.20.6问题解决。

51cto.com/a/luyoujiaohuan/index.html
http://www.net527.comlinux系统思科论坛Cisco


您可能感兴趣的文档:

--结束END--

本文标题: Hadoop+Hbase 安装配置实录

本文链接: https://lsjlt.com/news/39957.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • Hadoop+Hbase 安装配置实录
    生产环境:3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63) 注意:hostname设置为master/slave1/s...
    99+
    2024-04-02
  • Linux 系统 Hadoop+Hbase安装配置实录
    生产环境: 3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63) 注意:hostname设置为master/slave1/...
    99+
    2024-04-02
  • Hadoop HBase配置安装Snappy的详细教程
    这篇文章主要介绍“Hadoop HBase配置安装Snappy的详细教程”,在日常操作中,相信很多人在Hadoop HBase配置安装Snappy的详细教程问题上存在疑惑,小编查阅了各式资料,整理出简单好用...
    99+
    2024-04-02
  • hadoop之Hbase安装
    说明:hadoop安装:http://kexl908.blog.51cto.com/605006/812494Hbase接上面的hadoop安装环境之后继续安装,环境 IP 不变...
    99+
    2024-04-02
  • Hadoop + Hbase + Zookeeper安装及配置完整版(Hadoop1系列)
    第一步:安装Hadoop集群1、搭建环境所需介质准备   Enterprise-R5-U4-Server-x86_64-dvd.iso   hadoop-1.1.1....
    99+
    2024-04-02
  • hbase配置与安装
      HBase配置安装 hbase0.98.5使用hadoop2.2.0安装在rhel6.2系统。 下载 hbase-0.98.5-hadoop2-bin.tar.g...
    99+
    2024-04-02
  • Linux如何安装Hadoop和Hbase
    这篇文章主要介绍了Linux如何安装Hadoop和Hbase,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。三台CentOS7主机192.168.122.101 hdfs119...
    99+
    2023-06-15
  • Linux下Hbase安装配置教程
    目录Linux下Hbase安装配置1. Hbase安装包下载2. 安装3. 配置java_HOME环境变量4. (可选)配置hbase-site.xml5. 启动HbasePhoenix安装和配置1. Hbase安装包下...
    99+
    2022-06-04
    Linux Hbase安装配置 Linux Hbase安装
  • Linux下Hbase如何安装配置
    这篇文章主要介绍Linux下Hbase如何安装配置,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!Linux下Hbase安装配置首先要安装HadoopLinux Hadoop 2.7.3 安装搭建1. Hbase安装包...
    99+
    2023-06-21
  • hadoop+hbase+zookeeper完全分布安装(2)
    一 安装准备     上一篇我们安装完hadoop成功后就可以接着安装hbase了。根据上篇的对应表我们选择下载合适版本的hbase.本案例选择的版本是hbase-0.94.1...
    99+
    2024-04-02
  • hadoop+hbase+zookeeper完全分布安装(1)
    版本选择选择 Hadoop 版本对HBase部署很关键。下表显示不同HBase支持的Hadoop版本信息。基于HBase版本,应该选择合适的Hadoop版本。HBase-0.92.xHBase-0.94.x...
    99+
    2024-04-02
  • hadoop安装文件配置教程
    这篇文章主要讲解了“hadoop安装文件配置教程”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“hadoop安装文件配置教程”吧! 目前只是单机环境,namenode和datanode都在一台...
    99+
    2023-06-03
  • hadoop 2.2.X 配置参数说明:hbase-site.xml
    <!--Mon Aug 19 12:45:45 2013-->  <configuration>    <property>   ...
    99+
    2024-04-02
  • Hadoop中怎么配置HBase单机环境
    Hadoop中怎么配置HBase单机环境,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。  Hadoop HBase 单机环境怎么配置  在...
    99+
    2024-04-02
  • linux下hadoop的安装和配置过程
    这篇文章主要讲解了“linux下hadoop的安装和配置过程”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“linux下hadoop的安装和配置过程”吧!1,安装linux 本文假设从裸机开始...
    99+
    2023-06-13
  • hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安装
    创建3台虚拟机 主机为桌面版 其他为迷你版本 ******************************常用命令、进程名称****************************启动集群命令: start-all.sh...
    99+
    2017-03-10
    hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安装
  • Hadoop多节点集群怎么安装配置
    本篇内容主要讲解“Hadoop多节点集群怎么安装配置”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Hadoop多节点集群怎么安装配置”吧!1、集群部署介绍 1.1 Hadoop简介 H...
    99+
    2023-06-03
  • VirtualBox安装CentOS及JDK、Hadoop的安装与配置详细教程
    目录1.先决条件1.1 支持平台1.2 jdk及hadoop安装包1.3 Xshell 7与Xftp 7工具安装2.具体安装步骤 2.1 网络配置2.2 Xshell连接2...
    99+
    2024-04-02
  • hadoop基于Linux7的安装配置图文详解
      如上图 准备好该准备的食材(ps:其中的hadoop-3.1.2-src更改为hadoop-3.1.2 src为源文件的意思? 反正就是换了 大家注意一下 后面截图有错的地方有空我再改吧 肝疼) 安装好ce...
    99+
    2022-06-04
    hadoop Linux7 linux 安装配置
  • Hadoop学习之第八章节:Sqoop安装配置
    一、Sqoop介绍   Sqoop是一个用来将Hadoop(Hive、HBase)和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如:MySQL ,Oracle ,Pos...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作