返回顶部
首页 > 资讯 > 操作系统 >Linux 系统 Hadoop+Hbase安装配置实录
  • 982
分享到

Linux 系统 Hadoop+Hbase安装配置实录

2024-04-02 19:04:59 982人浏览 八月长安
摘要

生产环境: 3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63) 注意:hostname设置为master/slave1/

生产环境:
3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63)
注意:hostname设置为master/slave1/slave2
操作系统:rhel5.4 x86_64

master做为namenonde,将slave1和slave2做为datanode

1.在master:(在slave1和slave2上操作和以下相同)
vi /etc/hosts
192.168.0.61 master
192.168.0.62 slave1
192.168.0.63 slave2

2.用root操作

3.免密码登录
#ssh-keygen -t rsa #建立ssh目录,敲回车到底 ,这一步需要先在每台机器上执行。
在master上
#scp ~/.ssh/id_rsa.pub root@slave1:/root/.ssh/id_rsa.pub_m 将master上的密钥传到slave1的/home/hadoop
在slave1上
#cat /root/.ssh/id_rsa.pub_m >> ~/.ssh/authorized_keys
#chmod 644 ~/.ssh/authorized_keys

反复操作第3步,完成master<-->slave1 master<-->slave2的免密码登录
这样主节点和从节点之间就可以不用密码直接ssh访问,另外,在启动hadoop时需要master ssh master,
因此,在master的~/.ssh下,也执行下cat id_rsa.pub >> authorized_keys即可。

4.安装jdk到/usr/local下命名为jdk6
然后:
编辑三台机器的/etc/profile,增加如下内容
export JAVA_HOME=/usr/local/jdk6
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export HADOOP_HOME=/hadoop/hadoop
export HBase_HOME=/hadoop/hbase
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin

#vi /root/.bashrc
增加
export HADOOP_CONF_DIR=/hadoop/hadoop-config
export HBASE_CONF_DIR=/hadoop/hbase-config

5、防火墙
   各机器加入iptables策略:
#iptables -I INPUT -s 192.168.0.0/255.255.255.0 -j ACCPET
#service iptables save

-----------------------------------------
hadoop配置:

1.下载安装
#cd /hadoop
#wget Http://labs.renren.com/apache-mirror//hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz
#tar -zxvf hadoop-0.20.2.tar.gz
#ln -s hadoop-0.20.2 hadoop
    由于上述目录中hadoop的配置文件和hadoop的安装目录是放在一起的,这样一旦日后升级hadoop版本的时候所有的配置文件都会被覆盖,因 此将配置文件与安装目录分离,一

种比较好的方法就是建立一个存放配置文件的目录,/hadoop/hadoop-config/,然后将 /hadoop/hadoop/conf/目录中的core-site.xml,slaves,hadoop-env.sh,masters, hdfs-

site.xml,mapred-site.xml,这6个文件拷贝到 /hadoop/hadoop-config/目录中,并指定环境变量$HADOOP_CONF_DIR指向该目录。环境变量在/root/.bashrc 中设定。
#mkdir /hadoop/hadoop-config
#cd /hadoop/hadoop/conf/
#cp core-site.xml slaves hadoop-env.sh masters hdfs-site.xml mapred-site.xml /hadoop/hadoop-config/


2.修改6个文件
masters:
master

slaves:
slave1
slave2

#切忌不要创建:/hadoop/hadoop/tmp
hadoop-env.sh:
export JAVA_HOME=/usr/local/jdk6
export HADOOP_PID_DIR=/hadoop/hadoop/tmp

core-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
   <name>fs.default.name</name>
   <value>hdfs://master:54310</value>
</property>
</configuration>

#切忌不要创建:/hadoop/hadoop/name
#mkdir /hadoop/hadoop/data
hdfs-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/hadoop/hadoop/name/</value> #hadoop的name目录路径    
</property>
<property>
<name>dfs.data.dir</name>
<value>/hadoop/hadoop/data/</value> #hadoop的data目录路径
</property>
<property>
   <name>dfs.replication</name>
   <value>3</value>     #指定 HDFS 中每个 Block 被复制的次数,起数据冗余备份的作用。在典型的生产系统中,这个数常常设置为3
</property>
</configuration>

mapred-site.xml:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
   <name>mapred.job.tracker</name>
   <value>hdfs://master:54311/</value>
</property>
</configuration>


3、格式化namenode
#cd /hadoop/hadoop/bin
#./hadoop namenode -fORMat
#cd /hadoop
#scp -r ./* root@slave1:/hadoop/
#scp -r ./* root@slave2:/hadoop/
到slave1和slave2上,分别重做软链接
#cd /hadoop
#rm -rf hadoop
#ln -s hadoop-0.20.2 hadoop

4、启动所有hadoop守护进程
# ./start-all.sh
说明:
在bin/下面有很多启动脚本,可以根据自己的需要来启动。
* start-all.sh 启动所有的Hadoop守护。包括namenode, datanode, jobtracker, tasktrack
* stop-all.sh 停止所有的Hadoop
* start-mapred.sh 启动Map/Reduce守护。包括Jobtracker和Tasktrack
* stop-mapred.sh 停止Map/Reduce守护
* start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode
* stop-dfs.sh 停止DFS守护
[root@master bin]# jps
6813 NameNode
7278 Jps
7164 JobTracker
7047 SecondaryNameNode
出现4个这样的进程,且datanode没有error,同时访问ui正常才算成功。
ui:http://masterip:50070 --WEB UI for HDFS name node(s)
    http://masterip:50030 --web UI for mapReduce job tracker(s)
    http://slaveip:50060   --web UI for task tracker(s)

5、hdfs简单测试
#cd /hadoop/hadoop/bin
#./hadoop dfs -mkdir testdir
#./hadoop dfs -put /root/install.log testdir/install.log-dfs
将/root/install.log 存储到hdfs中的testdir中,重命名为install.log-dfs
#./hadoop dfs -ls
#./hadoop dfs -ls testdir

 

----------------------------------
1、hbase安装部署
#cd /hadoop
#wget http://apache.etoak.com//hbase/hbase-0.20.6/hbase-0.20.6.tar.gz
#tar -zxvf hbase-0.20.6.tar.gz
#ln -s hbase-0.20.6 hbase
#mkdir hbase-config
#cd /hadoop/hbase/conf/
#cp hbase-env.sh hbase-site.xml regionservers /hadoop/hbase-config/

2、配置文件修改
#mkdir /hadoop/hbase/tmp
#vim /hadoop/hbase-config/hbase-env.sh
增加
export JAVA_HOME=/usr/local/jdk6
export HBASE_MANAGES_ZK=true
export HBASE_PID_DIR=/hadoop/hbase/tmp

#vim hbase-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://master:54310/hbase</value> 注意主机名和端口号要与hadoop的dfs name的对应
</property>
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<property>
    <name>hbase.ZooKeeper.quorum</name>
    <value>master</value>
</property>
<property>
    <name>zookeeper.session.timeout</name>
    <value>60000</value>
</property>
<property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2222</value>
</property>
</configuration>

配置hbase服务器名称
#vi regionservers
slave1
slave2

3、复制hbase文件
在master上
#cd /hadoop
#scp -r hbase-0.20.6 hbase-0.20.6.tar.gz hbase-config root@slave1:/hadoop/
#scp -r hbase-0.20.6 hbase-0.20.6.tar.gz hbase-config root@slave2:/hadoop/
在slave1和slave2上,分别重做软链接
#cd /hadoop
#ln -s hbase-0.20.6 hbase

4、测试
在master上启动
#cd /hadoop/hbase/bin
#./hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Version: 0.20.6, r965666, Mon Jul 19 16:54:48 PDT 2010
hbase(main):001:0> create 'test','data'
0 row(s) in 1.1920 seconds
hbase(main):002:0> list
test                                                                                                         
1 row(s) in 0.0200 seconds
hbase(main):003:0> quit


----------------------------------------------
总结
在安装hadoop-0.21.0+hbase-0.20.6过程中,出现:org.apache.hadoop.hbase.masternotrunningexception异常。
使用hadoop-0.20.2+hbase-0.20.6问题解决。

--结束END--

本文标题: Linux 系统 Hadoop+Hbase安装配置实录

本文链接: https://lsjlt.com/news/40290.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • Linux 系统 Hadoop+Hbase安装配置实录
    生产环境: 3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63) 注意:hostname设置为master/slave1/...
    99+
    2024-04-02
  • Hadoop+Hbase 安装配置实录
    生产环境:3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63) 注意:hostname设置为master/slave1/s...
    99+
    2024-04-02
  • Hadoop + Hbase + Zookeeper安装及配置完整版(Hadoop1系列)
    第一步:安装Hadoop集群1、搭建环境所需介质准备   Enterprise-R5-U4-Server-x86_64-dvd.iso   hadoop-1.1.1....
    99+
    2024-04-02
  • Linux如何安装Hadoop和Hbase
    这篇文章主要介绍了Linux如何安装Hadoop和Hbase,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。三台CentOS7主机192.168.122.101 hdfs119...
    99+
    2023-06-15
  • Hadoop HBase配置安装Snappy的详细教程
    这篇文章主要介绍“Hadoop HBase配置安装Snappy的详细教程”,在日常操作中,相信很多人在Hadoop HBase配置安装Snappy的详细教程问题上存在疑惑,小编查阅了各式资料,整理出简单好用...
    99+
    2024-04-02
  • Linux下Hbase安装配置教程
    目录Linux下Hbase安装配置1. Hbase安装包下载2. 安装3. 配置java_HOME环境变量4. (可选)配置hbase-site.xml5. 启动HbasePhoenix安装和配置1. Hbase安装包下...
    99+
    2022-06-04
    Linux Hbase安装配置 Linux Hbase安装
  • Linux下Hbase如何安装配置
    这篇文章主要介绍Linux下Hbase如何安装配置,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!Linux下Hbase安装配置首先要安装HadoopLinux Hadoop 2.7.3 安装搭建1. Hbase安装包...
    99+
    2023-06-21
  • hbase配置与安装
      HBase配置安装 hbase0.98.5使用hadoop2.2.0安装在rhel6.2系统。 下载 hbase-0.98.5-hadoop2-bin.tar.g...
    99+
    2024-04-02
  • Linux系统安装和配置oracle
    1.准备安装包linux.x64_11gR2_database_1of2.ziplinux.x64_11gR2_database_2of2.ziprlwrap-0.30.tar.gz2.安装依赖关系先建立本...
    99+
    2024-04-02
  • Linux系统Mysql编译安装配置
    1、单实例Mysql数据库的安装1.1建立Mysql账号  首先root身份登陆Linux,然后创建Mysql组及账号  #groupadd mysql  #user...
    99+
    2024-04-02
  • Linux系统如何安装配置VNC
    这篇文章将为大家详细讲解有关Linux系统如何安装配置VNC,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。VNC 是在基于 UNIX 和 Linux 操作系统的免费的[开源的远程控制工具软件,远程控制能力...
    99+
    2023-06-28
  • Linux系统如何安装配置Samba
    这篇文章将为大家详细讲解有关Linux系统如何安装配置Samba,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。Samba是种自由软件,用来让UNIX系列的操作系统与微软Windows操作系统的SMB/CI...
    99+
    2023-06-28
  • Linux系统如何安装配置Gcc
    这篇文章主要介绍Linux系统如何安装配置Gcc,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!Linux系统如何安装Gcc?GCC是一套由 GNU 开发的编程语言编译器。它是一套以 GPL 及 LGPL 许可证所发行...
    99+
    2023-06-28
  • Linux系统中Fedora9安装和配置
    要在Linux系统中安装和配置Fedora 9,请按照以下步骤进行操作:1. 下载Fedora 9的ISO镜像文件。你可以从Fedo...
    99+
    2023-09-13
    Linux
  • Linux系统下安装配置 OpenLDAP + phpLDAPadmin
    Linux系统下安装配置 OpenLDAP + phpLDAPadmin实验环境:操作系统:Centos 7.4服务器ip:192.168.3.41运行用户:root网络环境:InternetLDAP(轻量级目录访问协议)是一个能实现提供被...
    99+
    2023-06-05
  • linux下hadoop的安装和配置过程
    这篇文章主要讲解了“linux下hadoop的安装和配置过程”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“linux下hadoop的安装和配置过程”吧!1,安装linux 本文假设从裸机开始...
    99+
    2023-06-13
  • Linux系统中如何安装配置Kafka
    这篇文章主要为大家展示了Linux系统中如何安装配置Kafka,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带大家一起来研究并学习一下“Linux系统中如何安装配置Kafka”这篇文章吧。Linux系统安装配置Kafka具体...
    99+
    2023-06-28
  • Linux系统中如何安装配置pytorch
    这篇“Linux系统中如何安装配置pytorch”文章,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要参考一下,对于“Linux系统中如何安装配置pytorch”,小编整理了以下知识点,请大家跟着小编的步伐一步一步的...
    99+
    2023-06-28
  • Linux系统中如何安装配置PHP
    这篇文章主要为大家展示了Linux系统中如何安装配置PHP,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带大家一起来研究并学习一下“Linux系统中如何安装配置PHP”这篇文章吧。Linux系统如何安装配置PHP?PHP是一...
    99+
    2023-06-28
  • 1、大数据 Hadoop配置和单机Hadoop系统配置
    大数据 Hadoop配置和单机Hadoop系统配置 #查看服务器ip ip add #设置主机名称 hostnamectl set-hostname master bash #查看 hostname #绑定ip...
    99+
    2015-09-23
    1 大数据 Hadoop配置和单机Hadoop系统配置
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作