大数据组件HA配置大全

一.Hadoop的HA

/usr/local/hadoop-2.8.4/etc/hadoop 下是所有hadoop配置文件
1.HDFS HA配置:
core-site.xml

<configuration>
	<property>
	  <name>fs.defaultFS</name>
	  <value>hdfs://mycluster</value>
	</property>
	<property>
	   <name>ha.zookeeper.quorum</name>
	   <value>node3:2181,node4:2181,node5:2181</value>
	</property>
	<property>
	  <name>hadoop.tmp.dir</name>
	  <value>/opt/hadoop</value>:
	</property>
	</configuration>

hdfs-site.xml

<configuration>
	<property>
	  <name>dfs.nameservices</name>
	  <value>mycluster</value>
	</property>
	<property>
	  <name>dfs.ha.namenodes.mycluster</name>
	  <value>nn1,nn2</value>
	</property>
	<property>
	  <name>dfs.namenode.rpc-address.mycluster.nn1</name>
	  <value>node1:8020</value>
	</property>
	<property>
	  <name>dfs.namenode.rpc-address.mycluster.nn2</name>
	  <value>node2:8020</value>
	</property>
	<property>
	  <name>dfs.namenode.http-address.mycluster.nn1</name>
	  <value>node1:50070</value>
	</property>
	<property>
	  <name>dfs.namenode.http-address.mycluster.nn2</name>
	  <value>node2:50070</value>
	</property>
	<property>
	  <name>dfs.namenode.shared.edits.dir</name>
	  <value>qjournal://node5:8485;node3:8485;node4:8485/mycluster</value>
	</property>
	<property>
	  <name>dfs.client.failover.proxy.provider.mycluster</name>
	  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
	</property>
	<property>
	  <name>dfs.ha.fencing.methods</name>
	  <value>sshfence</value>
	</property>

	<property>
	  <name>dfs.ha.fencing.ssh.private-key-files</name>
	  <value>/root/.ssh/id_dsa</value>
	</property>
	<property>
	   <name>dfs.ha.automatic-failover.enabled</name>
	   <value>true</value>
	 </property>
	</configuration>

开启ha后不需要配置SecondaryNameNode了,因为SecondaryNameNode节点是通过checkpoint来加载合并日志生成镜像给namenode,当namenode宕机后,SecondaryNameNode还是会丢失一段时间的数据,所以没有根本上解决单点故障问题,ha可以通过zookeeper(zkfc)来监控,standbynamenode则通过zkfc更新最新的namenode信息,解决了单点故障的问题

2.YARN的HA配置
yarn-site.xml

<configuration>

	<!-- Site specific YARN configuration properties -->
	<!-- Site specific YARN configuration properties -->
	<property>
	  <name>yarn.resourcemanager.recovery.enabled</name>
	  <value>true</value>
	</property>
	<property>
	  <name>yarn.resourcemanager.store.class</name>
	  <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
	</property>
	<property>
			<name>yarn.nodemanager.aux-services</name>
			<value>mapreduce_shuffle</value>
		</property>
	<property>
	   <name>yarn.resourcemanager.ha.enabled</name>
	   <value>true</value>
	 </property>
	 <property>
	   <name>yarn.resourcemanager.cluster-id</name>
	   <value>yarncluster</value>
	 </property>
	 <property>
	   <name>yarn.resourcemanager.ha.rm-ids</name>
	   <value>rm1,rm2</value>
	 </property>
	 <property>
	   <name>yarn.resourcemanager.hostname.rm1</name>
	   <value>node1</value>
	 </property>
	
	<property>
	   <name>yarn.resourcemanager.hostname.rm2</name>
	   <value>node2</value>
	 </property>
	 <property>
	   <name>yarn.resourcemanager.zk-address</name>
	   <value>node3,node4,node5</value>
	 </property>
	<property>
	   <name>yarn.scheduler.maximum-allocation-mb</name>
	   <value>32768</value>
	</property>
	<property>
		<name>yarn.nodemanager.resource.memory-mb</name>
		<value>32768</value>
	</property>
	<property>
		<name>yarn.scheduler.minimum-allocation-mb</name>
		<value>4096</value>
	</property>
	 <property>
	   <name>yarn.nodemanager.resource.cpu-vcores</name>
		<value>24</value>
	</property>
	<property>
			<name>yarn.log-aggregation-enable</name>
			<value>true</value>
	</property>
	<property>
			<name>yarn.nodemanager.remote-app-log-dir</name>
			<value>/tmp/yarn-logs</value>
	</property>
	</configuration>

配置好后,分发到所有节点,启动zookeeper后
start-all.sh 即可启动所有

yarn.resourcemanager.ha.enabled:开启RM HA功能。
yarn.resourcemanager.cluster-id:标识集群中的RM。如果设置该选项,需要确保所有的RMs在配置中都有自己的id。
yarn.resourcemanager.ha.rm-ids:RMs的逻辑id列表。可以自定义,此处设置为“rm1,rm2”。后面的配置将引用该id。
yarn.resourcemanager.hostname.rm1:指定RM对应的主机名。另外,可以设置RM的每个服务地址。
yarn.resourcemanager.webapp.address.rm1:指定RM的Web端访问地址。
yarn.resourcemanager.zk-address:指定集成的ZooKeeper的服务地址。
yarn.resourcemanager.recovery.enabled:启用RM重启的功能,默认为false。
yarn.resourcemanager.store.class:用于状态存储的类,默认为org.apache.hadoop.yarn.server.resourcemanager.recovery.FileSystemRMStateStore,基于Hadoop文件系统的实现。还可以为org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore,该类为基于ZooKeeper的实现。此处指定该类。

二、Hbase HA

修改配置文件,分发到所有几点,启动即可
注意:要启动两个master,其中一个需要手动启动

注意:Hbase安装时,需要对应Hadoop版本
hbase hbase-2.1.4 对应 hadoop 2.8.4

通常情况下,把Hadoop core-site hdfs-site 拷贝到hbase conf下

修改 hbase-env.sh
修改 hbase-site.xml

hbase-env.sh--------------------
export JAVA_HOME=/usr/java/jdk1.8.0_201
export HBASE_MANAGES_ZK=false

关闭hbase自带的zookeeper 使用集群zookeeper

hbase-site.xml

<configuration>
	<property>
		<name>hbase.cluster.distributed</name>
		<value>true</value>
	  </property>
	  <property>
		<name>hbase.rootdir</name>
		<value>hdfs://mycluster/hbase</value>
	  </property>
	  <property>
		<name>hbase.zookeeper.quorum</name>
		<value>node3,node4,node5</value>
	  </property>
	  <property>
		<name>hbase.zookeeper.property.clientPort</name>
		<value>2181</value>
	  </property>
	  <property>
		<name>zookeeper.session.timeout</name>
		<value>120000</value>
	  </property>
	  <property>
		<name>hbase.zookeeper.property.tickTime</name>
		<value>6000</value>
	  </property>
	</configuration>

启动hbbase
需要从另一台服务器上单独启动master
hbase-daemon.sh start master

通过以下网站可以看到信息
http://192.168.109.132:16010/master-status

三.Spark 的 HA

(1)基于文件目录的单点恢复


			(*)本质:还是只有一个主节点Master,创建了一个恢复目录,保存集群状态和任务的信息。
				当Master挂掉,重新启动时,会从恢复目录下读取状态信息,恢复出来原来的状态
				
				用途:用于开发和测试,生产用zookeeper
				export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=FILESYSTEM 
				-Dspark.deploy.recoveryDirectory=/usr/local/spark-2.1.0-bin-hadoop2.7/recovery"

(2)基于Zookeeper :和Hadoop类似


			(*)复习一下zookeeper:
				相当于一个数据库,把一些信息存放在zookeeper中,比如集群的信息。
				数据同步功能,选举功能,分布式锁功能
				
				数据同步:给一个节点中写入数据,可以同步到其他节点
				
				选举:Zookeeper中存在不同的角色,Leader Follower。如果Leader挂掉,重新选举Leader
				
				分布式锁:秒杀。以目录节点的方式来保存数据。
			修改 spark-env.sh
			export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER 
			-Dspark.deploy.zookeeper.url=node3:2181,node4:2181,node5:2181 
			-Dspark.deploy.zookeeper.dir=/spark"
			
			同步到其他两台服务器。
			
			在node3 start-all  node3 master  node4 Worker node5 Worker
			在node4 start-master node3 master node4 master(standby) node4 Worker node5 Worker
			
			在node3上kill master
			node4 master(Active) node4 Worker node5 Worker
			
			在网页http://192.168.109.134:8080/ 可以看到相应信息
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章