GreemPlum怎样将故障恢复后的主库加入集群

环境介绍:

原主库IP      原主库hostname

192.168.1.202   pc1

192.168.1.204   pc3

 

当原主库故障恢复后,在原主库上执行gpstart -a时报错:

gpstart:pc1:gpadmin-[ERROR]:-gpstart error: Standby activated, this node no more can act as master.

执行gpstart -m虽然能启动成功,但是只是master-only模式,不能登录该数据库。

1 将原主库以standby的角色加入

1.1 删除原master的数据目录

cd /data/greenplum/data/master

mv gpseg-1 gpseg-1_bak

1.2 将原主库以standby的角色加入集群

在现主库上执行:

gpinitstandby -s pc1

--pc1是原主库的主机名

如果报错:

-[ERROR]:-Failed to copy data directory from master to standby.

20200331:15:20:51:008596 gpinitstandby:pc3:gpadmin-[ERROR]:-Failed to create standby

[ERROR]:-Error initializing standby master: ExecutionError: 'non-zero rc: 1' occurred.  Details: 'ssh -o StrictHostKeyChecking=no -o ServerAliveInterval=60 pc1 ". /usr/local/greenplum-db/./greenplum_path.sh; pg_basebackup -c fast -D /data/greenplum/data/master/gpseg-1 -h pc3 -p 5432 --xlog --force-overwrite --write-recovery-conf --target-gp-dbid 7 -E ./db_dumps -E ./gpperfmon/data -E ./gpperfmon/logs -E ./promote --progress --verbose"'  cmd had rc=1 completed=True halted=False

请确认原主库的防火墙端口是否开通

 

#查看master standby信息

[gpadmin@pc3 ~]$ gpstate -f

1.3 主从切换

#杀掉pc3的master节点:

gpstop -m

 

#激活pc1上的standby master

gpactivatestandby -d $MASTER_DATA_DIRECTORY

 

#检查集群状态

gpstate -s

会看到Master host变成pc1了。

 

--本篇文章主要参考了https://blog.51cto.com/ylw6006/2088991

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章