본문 바로가기
아이티 공부/리눅스

RHCS (Red hat Cluster Suite) 구축 2/4

by Klero 2017. 3. 19.

클러스터는 두 개 이상의 컴퓨터가 작업을 실행하기 위해 함께 동작하는 것으로 네 개의 주요 

클러스터 유형으로 되어 있다.

 


- 스토리지 (Storage)
- 고가용성 (High Availability)
- 로드 밸런싱 (Load balancing)
- 고성능 (High performance)

 

 

2대의 클러스터 노드와 1대의 클러스터 관리 노드 , + FreeNAS 서버 1대

 


시나리오


노드 - A : 192.168.0.152
노드 - B : 192.168.0.153
노드 - C : 192.168.0.156 (Cluster Management Server)
노드 - D : 192.168.0.157 (FreeNAS)

 


1. /etc/hosts 파일 수정

 

- 각각의 노드들의 /etc/hosts 파일 수정

 

192.168.0.152   RHCS01
192.168.0.153   RHCS02
192.168.0.156   RHCSManager

 


2. 모든 노드들에 대해 RHCS(Red Hat Cluster Suite) 와 Conga(Web base management Suite)를 설치한다.

 

# yum groupinstall "High Availability"

 

- Conga는 Red Hat 고가용성 추가 기능을 관리하기 위해 사용할 수 있는 그래픽 사용자 인터페이스이다.
- 그래픽 사용자 인터페이스를 사용해 클러스터 설정을 배우는 것은 권고하지 않는다지만 어쩔

   

 

3. 클러스터 관리서버 (노드 - C) 에 대해 아래 패키지를 설치한다.

 

# yum groupinstall "High Availability Management"

 

만약 High Availability Management 를 이용할 수 없다는 에러가 발생하면 /etc/yum.repos.d/local.repo에 

아래의 내용을 추가한다. (baseurl 주소는 바뀔 수 있다.)

 

 

[rhel6-local]
name=rhel6
baseurl=file:///repository/Server
enabled=1
gpgcheck=0
[HighAvailability]
name=HighAvailability
baseurl=file:///repository/HighAvailability
enabled=1
gpgcheck=0
[LoadBalancer]
name=LoadBalancer
baseurl=file:///repository/LoadBalancer
enabled=1
gpgcheck=0
[ScalableFileSystem]
name=ScalableFileSystem
baseurl=file:///repository/ScalableFileSystem
enabled=1
gpgcheck=0

 

4. 노드 A 와 노드 B의 cluster.conf 파일을 생성 및 수정하자

 

# vi /etc/cluster/cluster.conf

 

<?xml version="1.0"?>
<cluster config_version="23" name="RHCS-cluster">
<clusternodes>
<clusternode name="RHCS01" nodeid="1"/>
<clusternode name="RHCS02" nodeid="2"/>
</clusternodes>
</cluster>

 

 

클러스터의 이름은 RHCS-cluster 이며 RHCS01 , RHCS02가 클러스터가 된다.

 

 

5. 노드 A , 노드 B 에 대해 아래의 서비스를 실행한다.

 

 

# chkconfig cman on

 

# chkconfig rgmanager on
- 가상 머신 리소스로 클러스터를 설정하려면 가상 머신을 시작 및 중지하기 위해 rgmanager 도구를 사용해야 한다.

 

 

# chkconfig modclusterd on

 

# chkconfig ricci on

 

# passwd ricci
- RHEL6.1 및 그 이후 릴리즈에서 ricci 를 사용하는 경우, 특정 노드에서 업데이트된 클러스터 설정을 처음으로 

전달할 때 암호가 필요하다.

 


# /etc/init.d/cman start

 


- 아래와 같이 Network Manager 관련 에러가 발생할 수 있다.

 


Network Manager 데몬은 동적으로 네트워크의 변경 사항을 탐지하고 설정해 주는 역할을 수행하며 

데스크톱에서는 유용할 수 있다.
문제는 서버로 사용하는 리눅스의 경우 네트워크 설정이 자주 변경될 일이 없고 또한 설정 파일을 수정해도 명시적으로

 

# service network restart 를 수행하기 때문에 Network Manager가 있으면 자동으로 설정이 변경되어 문제가 발생할 수 있다.

 

(RHEL7 버전에는 Network Manager 가 많은 개선이 이루어졌다고는 한다만 잘 모르겠다.)

 

 

 

- Network Manager 데몬을 중지하자

 


# service NetworkManager stop
# chkconfig NetworkManager off

 

 # /etc/init.d/cman start
- 이번에 아래와 같은 에러가 발생한다.
- quorum 디스크가 없기 때문에 발생하는 문제 같다. 일단 넘어가자

 

 

 

# /etc/init.d/ricci start

 

# /etc/init.d/rgmanager start

 

# /etc/init.d/modclusterd start

 

 

6. 매지지먼트 노드 (노드 - C)에서는 아래 서비스를 시작한다.

 

# chkconfig luci on
- Conga로 Red Hat 고가용성 추가 기능을 관리하려면 luci를 설치 및 실행해야 한다.

 

 

 

# chkconfig ricci on
- 매니지먼트 노드에서 ricci는 아래 High Availability Management 사이트 로그인할 때 사용하는 패스워드 같다.

 

 

 

# /etc/init.d/luci start
- 아래와 같은 메세지가 발생하며, 여길로 접속하면 된다.
Point your web browser to https://RHCSManager:8084 (or equivalent) to access luci

 

 

 

# /etc/init.d/ricci start

 


7. 웹브라우저로 접속하여 설정을 진행한다.

 

Username 은 root / Password 는 root의 암호를 입력하면 된다.

 

댓글