一、cloudera manager 管理大数据开发平台(集群)简介
1.主从架构:
(1)server:主节点进程,启动在一台服务器上,与各个从节点通讯收集从节点发来的服务器状态信息,另外负责整个集群的启动和停止,负责集群框架的安装部署统一调配
server进程所在的服务器上不安装任何大数据框架
(2)agent:从节点agent也称为主机,所有的大数据框架安装部署及任务的执行都是在agent上实现的。agent服务器负责搜集所在服务器上的服务器资源信息及其他服务器进程的运行状态信息统一汇报给server
二、环境的准备
1.基础环境
(1)系统centos7.4
(2)三台Linux服务器
hadoop:8G,40G,4cores hadoop02:8G,40G,4cores hadoop03:4G,40G,2cores
讯享网
2.配置ip、hostname、映射 (所有服务器)
1)查看文件信息并且追加信息,三台分别添加
讯享网vi /etc/sysconfig/network 添加 ----1 NETWORKING=yes #使用网络 HOSTNAME=hadoop ----2 NETWORKING=yes #使用网络 HOSTNAME=hadoop02 ----3 NETWORKING=yes #使用网络 HOSTNAME=hadoop03
2)重启生效
第一台 hostnamectl set-hostname hadoop 第二台 hostnamectl set-hostname hadoop02 第三台 hostnamectl set-hostname hadoop03
3)验证
讯享网hostname
三台结果
hadoop hadoop02 hadoop03
4)查看文件信息并且追加信息(所有机器)
讯享网vi /etc/hosts 添加 172.16.0.147 hadoop 172.16.0.115 hadoop02 172.16.0.124 hadoop03
5)验证
ping www.baidu.com
3.禁用ipv6
1)查看文件信息并且追加信息
讯享网(1) vi /etc/sysctl.conf (2)添加 net.ipv6.conf.all.disable_ipv6 = 1 net.ipv6.conf.default.disable_ipv6 = 1 (3)刷新 sysctl -p (4)检查 ifconfig 结果:【已经没有ipv6了】 [root@hadoop modprobe.d]# ifconfig eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 172.16.0.147 netmask 255.255.255.0 broadcast 172.16.0.255 ether fa:16:3e:7d:ce:95 txqueuelen 1000 (Ethernet) RX packets bytes (243.5 MiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets bytes (215.4 MiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0 lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536 inet 127.0.0.1 netmask 255.0.0.0 loop txqueuelen 1 (Local Loopback) RX packets bytes (4.4 GiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets bytes (4.4 GiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
2)重启生效
ip a 验证是否成功
4.禁用selinux 和关闭防火墙
1)禁用selinux
(1)查看:getenforce [root@hadoop03 ~]# getenforce Disabled (2)永久关闭 vi /etc/selinux/config 修改为: SELINUX=disabled (3)centos7默认就是 SELINUX=disabled 所以不用修改
2)关闭防火墙
讯享网(1)关闭:systemctl stop firewalld (2)开机禁用:systemctl disable firewalld (3)查看状态:systemctl status firewalld
5.JDK安装(所有三台机器)
1)卸载系统自带的相关安装包
# rpm -qa | grep java # rpm -e --nodeps tzdata-java-2013g-1.el6.noarch java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64 java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64
2)创建目录,上传解压jdk
讯享网# mkdir -p /opt/modules # mkdir -p /opt/softwares # tar -zxf jdk-8u151-linux-x64.tar.gz -C /opt/modules
3)配置java环境变量(所有机器)
vi /etc/profile 添加 export JAVA_HOME=/opt/modules/jdk1.8.0_151 export PATH=$PATH:$JAVA_HOME/bin
4)配置生效(所有机器)
讯享网source /etc/profile
5)拷贝给其他服务器(所有机器)
scp -r /opt/modules/jdk1.8.0_151/ root@hadoop02:/opt/modules/ scp -r /opt/modules/jdk1.8.0_151/ root@hadoop03:/opt/modules/
6)验证(所有机器)
讯享网[root@hadoop modules]# java -version openjdk version "1.8.0_191" OpenJDK Runtime Environment (build 1.8.0_191-b12) OpenJDK 64-Bit Server VM (build 25.191-b12, mixed mode)
6.ssh免密码登录 (所有服务器)
1)ssh 针对用户,并且首先保证ssh localhost正常通畅
ssh localhost
2) 在每台服务器上生成公私密钥
讯享网ssh-keygen 回车四下
3)分发公钥(注意:每次ssh登录后,事情做完后,记得exit)
三台机器都要做以下三步
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop ssh hadoop exit ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop02 ssh hadoop02 exit ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop03 ssh hadoop03 exit
4)验证(都验证)
讯享网从第1台到第2台 ssh hadoop02.com exit
7.集群系统的时间同步
1)检查是否有ntp
rpm -qa | grep ntp
没有的需要安装
讯享网yum -y install ntp
2)选择一台服务器作为集群的时间服务器
选择第一台hadoop
systemctl start ntpd 启动 systemctl enable ntpd.service 开机启动
3)修改时间服务器的配置文件
讯享网-》vim /etc/ntp.conf -》显示行数 :set number -》18行修改 restrict 172.16.0.147 mask 255.255.255.0 nomodify notrap -》注释掉:【华为没有】 22 #server 0.centos.pool.ntp.org 23 #server 1.centos.pool.ntp.org 24 #server 2.centos.pool.ntp.org 25 #server 3.centos.pool.ntp.org -》添加:【在25行之后,服务器有,所以不添加】 server 127.127.1.0 # local clock fudge 127.127.1.0 stratum 10
4)启动并且配置开机时启动
systemctl start ntpd 启动 systemctl enable ntpd.service 开机启动
5)更新本地时间
讯享网查看时间: date -R 选择一个服务器: ntpdate -u us.pool.ntp.org
6)查看本地硬件时钟时间,并进行更新
hwclock --localtime hwclock --localtime -w //系统时间同步给硬件时间
7)服务器关机或断电后,系统时间不准确,硬件时钟时间正常走动,设置服务器启动后自动将硬件时钟时间同步给系统时间
讯享网# vi /etc/sysconfig/ntpd 添加 SYNC_HWCLOCK=yes
8)服务器重启启动或断网重新连接后,会自动同步网络时间,设置下让系统时间自动同步给本地硬件时钟时间
# vi /etc/sysconfig/ntpdate SYNC_HWCLOCK=yes
9)其他的服务器与这台时间服务器进行时间同步(剩余两台所有机器)
重复1)和2)安装和开启ntp服务,然后设定定时同步任务
讯享网# crontab -e 添加 */1 * * * * /usr/sbin/ntpdate -u hadoop
10)所有节点 启动ntpd服务(剩余两台所有机器)
systemctl start ntpd 启动 systemctl enable ntpd.service 开机启动
8.设置用户能打开的文件最大数量、进程最大数据、能使用的内存量
(所有服务器)(soft:警告;hard:停机)
1)查看文件信息并且修改
讯享网 # vi /etc/security/limits.conf * soft nofile 32728 * hard nofile * soft nproc 65535 * hard nproc unlimited * soft memlock unlimited * hard memlock unlimited
2)hadoop复制limits.conf到其他各台机器
scp /etc/security/limits.conf root@hadoop02:/etc/security/limits.conf scp /etc/security/limits.conf root@hadoop03:/etc/security/limits.conf
3)重启生效
讯享网验证: # ulimit -a 注:强调该文件,严格按照格式来改最好通过复制修改,如果limits.conf配置错误,linux重启不能进入
9.重启(生效)
reboot

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/13769.html