Page History
Rancher Server UI 설치
도커가작동중인 서버에서 최초 설치가가능하며
2.6.4버전으로 구성되었습니다.
Code Block |
---|
docker run -d --restart=unless-stopped \
-p 80:80 -p 443:443 \
--privileged \
rancher/rancher:v2.6.4 |
Cluster 추가
Rancher설치가 끝나면, 도커를 집단으로 운영할 Cluster 추가를 통해 시작할수 있습니다.
논리적인 컨셉으로 아직 서버가 구성되지 않은 상태로 시작할수 있습니다.
테스트에 사용된 옵션
Endpoint인증부분만 비활성화하고 나머지는 기본값을 활용 하였습니다.
- Cluster Name : late-cluster
Cluster 구성 - Node추가
...
클러스터 관리의 Registaration에 의해 노드구성을 할수 있습니다.
다음을 참고하여 클러스터내 노드 구성 계획을 어느정도 구상한후 시작하는것이 좋습니다.
NodeRole 계획
Role은 크게 3가지로 구분됩니다. Control/Etcd가 추가적인 리소스를 사용하기 때문에 가지고 있는 VM및 장비에 따라 역할을 구분하여 운영할수 있습니다.
스펙이 좋은 장비에 모든 롤을 부여해서 분산처리할수도 있지만, 효율적인 POD(컨테이너) 운영을 위해서는 분리 운영하는것이 권장됩니다.
- Control : 쿠버를 컨트롤할수 있는 컨트롤및 쿠버 클러스터의 실질적인 Master 역활을 수행합니다. 이중화 구성도 할수 있으며 여기서는 단일 Con
- Etcd : Nginx및 Ingress등 게이트웨이 역할을 할수 있는 툴들이 설치가 됩니다.
- Worker : Pod가 여기서 구동됩니다.
Control Plane,ETCD
Control/ETCD 롤인경우 쿠버 클러스터를 운영하기위해 여러 코어 툴들이 Agent에 의해 자동설치되며 4GB이상 권장됩니다. WORKED가 빠질시 2GB로 운영가능합니다.
Control/ETCD등 2중화 운영시 하나씩 더 구성가능하며 이 샘플에서는 완전한 기능을 하는 최초 Master노드가 필요하기때문에 최초 노드는 All( control/etc/worked)로 셋업이 되었습니다.
Worked
POD 구동이 되는 인스턴스로, 쿠버에서 Pod운영을 위한 필요한 요소가 자동설치 됩니다. 최소 2GB 로 운용가능합니다.
이 샘플의 클러스터 계획
이 샘플의 클러스터 계획을 도식화 해보았습니다.
draw.io Diagram | ||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
이 샘플의 클러스터 구성계획표이며 다음과 같은 컨셉을 가지고 있습니다.
- Rancher Server와 쿠버클러스터 Master의 VM은 분리 되었습니다.
- 쿠버의 코어기능을 하는 Master Node 와 Work Node를 VM분리 하였습니다.
모든 역활을 하는 최초 Master Node를 하나 추가합니다.
- Show Advanced를 눌러 자신의 네트워크 구성에 맞는 클러스터내에서 인식되는 IP를 입력합니다. ( 프라이빗 가상 네트워크를 구성하였다면 기본값 사용, 홈환경이면 공유기가 할당한 IP(Public) 를 일반적으로 입력할수 있습니다. )
자신이 생성한 클러스터가 최초 Active를 확인하면 이후 Work노드를 추가할수 있습니다. ( 참고 : 한꺼번에 추가 가능할수도 있지만~ 최초 클러스터 Active를 확인한후 이후 노드를 구성합니다. )
local 클러스터의 경우 rancher가 설치되면 표시되는 rancher자체의 운영 클러스터로 이 클러스터는 건들지 않습니다.
Worker 추가구성
스케일 아웃을 위해 서버를 미리 구성하는 전략으로 클러스터가 완성되고 난 이후 , Worker노드를 늘려갈수 있습니다. 도커가 구성되는 가상의 컴퓨팅에서 단지 Agent를 설치하면
쿠버네티스에서 필요한 요소들을 도커 Base 로 자동 설치를 해줍니다.