特点:高可靠性(不怕丢)、高效性(处理速度快)、高容错性 ps:使用hadoop版本: 接下来所用到的Hadoop2.8.5,虽然目前Hadoop已经更新到3.x了;但是我们始终秉持一个观点“用旧不用新”,因为毕竟旧版本较为稳定(目
特点:高可靠性(不怕丢)、高效性(处理速度快)、高容错性
接下来所用到的Hadoop2.8.5,虽然目前Hadoop已经更新到3.x了;但是我们始终秉持一个观点“用旧不用新”,因为毕竟旧版本较为稳定(目前虽然jdk出到版本为16了,但是我们还是会使用jdk8和jdk11),包括后期使用的各项Hive、HBase等都需要与hadoop版本相对应,很难去找此类资源;当然如果到公司以后,公司也会给你提供好相应版本的,直接用就可以。
Hadoop
mapReduce:分布式离线计算框架----不需要安装----逻辑概念-----需要编码实现
Yarn:分布式资源调度系统----需要安装
安装方式:
(本模式下:hdfs和yarn组件无法使用,只能使用mapreduce-----一般只用来测试mapreduce)
一般会将目录设置为(/opt目录一般存放第三方软件)---app下放安装的软件,software下放第三方软件的压缩包
vim /etc/profile来更改系统环境变量(配置Hadoop的环境变量:目的是为了能够在任何目录下都能使用hadoop命令)
export HADOOP_HOME=/opt/app/hadoop-2.8.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
hadoop version
(本模式下:hadoop的组件hdfs和yarn都在一台机器上,需要去修改配置文件)
前言:一个巨大的文件需要进行存储,单台计算机肯定是不能存储这个文件的,因此我们可以将这个文件切割成几个部分,分别放到不同计算机上。但是这时出现了一个问题:三台机器上存储的文件互相没有联系,大文件怎么能下载呢? 此时可以在每个电脑上安装HDFS进行 “关系定义”,接下来讨论下这个关键性技术HDFS
主从模式--分布式软件:一个主节点,多个从节点
熟悉概念
HDFS{
Namenode:存储元数据{领导,知道数据放到哪里}
DataNode:存储数据(员工)
SecondaryNameNode:(秘书)
}
Yarn{
ResourceManager (相当于NameNode:领导)
NodeManager (相当于DataNode:员工)
}
配置项
(.sh文件进行与java相连的jdk配置:配置JAVA_HOME=/opt/app/jdk1.8)
(.xml文件进行相应配置:core(common公共的)、hdfs、mapred、yarn)
1.core-site.xml
hadoop.tmp.dir
/opt/app/hadoop-2.8.5/temp
2.hdfs-site.xml
fs.defaultFS
hdfs://192.168.0.20:9000
dfs.replication
1
3.mapred-site.xml
mapreduce.framework.name
yarn
4.yarn-site.xml
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.resourcemanager.hostname
192.168.0.20
格式化NameNode
(相当于创建core-site.xml中声明的temp目录)
{只能格式化1次,如果非要格式化的话,那么可以将产生的temp文件删除}
hadoop namenode -fORMat
开启hdfs服务和yarn服务
start-dfs.sh
start-yarn.sh
访问验证
namenode访问网址{Http://ip:50070}
yarn的访问网址{http://ip:8088}
补充
通过此种方式,你会发现在启动各个节点时需要反复输入密码,不想要这样的话,就寻找解决方式:
配置ssh免密钥登录
生成密钥
cd ~/.ssh
ssh-keygen -t rsa
把密码给别人
ssh-copy-id 192.168.0.20
(最少有3台节点组成的集群)----一般在生产部署时使用
192.168.0.20 、192.168.0.21、192.168.0.22
---过程与伪分布式中所谈到的免密登录一致
(成功界面)
安装ntp
yum install -y ntp
vim /etc/ntp.conf
此处第一个圆圈内,我的网段应该为192.168.0.0
(以上两张图片为需要在ntp.conf中修改和添加的)
修改/etc/sysconfig/ntpd
添加代码
SYNC_HWCLOCK=yes
添加成开机启动
systemctl enable ntpd
然后在node2和node3上配置定时任务
crontab -e
*/1 * * * * /usr/sbin/ntpdate 192.168.0.20
每隔1分钟,同步node1主服务器上的时间
--结束END--
本文标题: 初识Hadoop的三种安装模式
本文链接: https://lsjlt.com/news/8601.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-10-23
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0