반복영역 건너뛰기
주메뉴 바로가기
본문 바로가기
제품/서비스
EMS Solution
Features
클라우드 관리
AI 인공지능
서버관리
데이터베이스 관리
네트워크 관리
트래픽 관리
설비 IoT 관리
무선 AP 관리
교환기 관리
운영자동화
실시간 관리
백업 관리
APM Solution
애플리케이션 관리
URL 관리
ITSM Solution
서비스데스크
IT 서비스 관리
Big Data Solution
SIEM
Dashboard
대시보드
Consulting Service
컨설팅 서비스
고객
레퍼런스
고객FAQ
문의하기
가격
자료실
카탈로그
사용자매뉴얼
회사소개
비전·미션
연혁
2016~현재
2000~2015
인증서·수상
투자정보
재무정보
전자공고
IR자료
새소식
공고
보도자료
오시는 길
채용
피플
컬처
공고
FAQ
블로그
열기
메인 페이지로 이동
블로그
최신이야기
블로그
최신이야기
사람이야기
회사이야기
기술이야기
다양한이야기
최신이야기
검색
기술이야기
쿠버네티스를 통해 본 컨테이너 오케스트레이션
기술이야기
쿠버네티스를 통해 본 컨테이너 오케스트레이션
‘쿠버네티스(kubernetes)’는 2013년 구글에서 공개한 이후 컨테이터 오케스트레이션 도구의 표준으로 자리 잡았습니다. CNCF의 1호 졸업 프로젝트이기도 한 쿠버네티스는 지속적인 릴리즈를 거쳐 꽤 성숙한 제품이 됐는데요. 쿠버네티스는 컨테이너화된 어플리케이션을 자동으로 배포하고 스케일링 및 관리하기 위한 컨테이너 오케스트레이션 도구라고 간단하게 정의할 수 있습니다. 일반적으로 컨테이너를 사용할 때 ‘도커(Docker)’를 많이 사용한다는 이야기를 들으셨을 것입니다. 도커는 컨테이너를 쉽게 만들고, 내려받고, 공유할 수 있도록 사용되는 컨테이너 플랫폼입니다. 온프레미스 환경 아래의 배포에서 가상환경의 배포로 발전하고 더 나아가 컨테이너 환경 아래에서 리소스를 관리하게 되면서, 도커는 컨테이너 런타임의 표준으로 자리 잡았습니다. 이미지 출처 ⓒ https://kubernetes.io/ko 컨테이너 환경의 배포는 온프레미스 환경과 가상화 환경의 배포보다 관리는 용이하지만, 컨테이너 수가 많아지게 되면서 부하 분산과 안정적인 배포를 위해 관리해야 할 필요성이 지속적으로 증가하였습니다. 이 때 등장하는 것이 컨테이너의 오케스트레이션 도구라고 할 수 있는 쿠버네티스입니다. 이번 시간에는 컨테이너 오케스트레이션의 주요 도구인 쿠버네티스를 통해 컨테이너 오케스트레이션에 대해 알아보고자 합니다. │쿠버네티스의 주요 목적 쿠버네티스의 주요 목적을 이해하려면 컨테이너 오케스트레이션의 개념을 먼저 짚고 넘어가야 합니다. 컨테이너 오케스트레이션 위키피디아의 정의에 따르면 ‘컴퓨터 리소스 자원과 애플리케이션 및 서비스에 대한 자동화된 설정 및 관리’를 의미합니다. 이를 컨테이너에 적용하면, 여러 컨테이너에 대한 프로세스를 최적화하고 적절한 자원의 할당과 자동으로 컨테이너를 생성하고 배포할 수 있도록 해야 합니다. 소수 사용자를 위한 비교적 단순한 컨테이너 앱은 보통 별도의 오케스트레이션이 필요하지 않을 수 있습니다. 관리자가 각 컨테이너 별 리소스 자원을 할당하면 그만이겠죠. 하지만 만약 앱의 기능과 사용자 수가 사소한 수준 이상이라면, 컨테이너 오케스트레이션 시스템을 사용하지 않고 직접 해결하기 어려워집니다. 무엇보다 아키텍처의 트렌드가 모놀리식(Monolithic Architecture)에서 마이크로서비스(Microservice Architecture)로 변화하는 과정에서 컨테이너의 수는 계속 증가할 것이고 무중단 서비스, 즉 고가용성을 제공해야 하는 환경이라면 컨테이너 오케스트레이션은 원활한 서비스 구성을 위한 필수 요소라고 할 수 있습니다. 마이크로서비스 아키텍처 환경에서는 애플리케이션의 세부 기능들이 작은 서비스 단위로 분리되어 있습니다. 이 각각의 서비스를 구현하는데 컨테이너 기술이 가장 흔하게 이용되는데요, 다수의 컨테이너를 관리하는 상황이라면 위의 4가지 이슈에 대한 해답을 찾아야 합니다. │쿠버네티스의 핵심 아키텍처 앞서 살펴본 4가지 이슈를 해결하기 위해 쿠버네티스는 아래와 같은 네 가지 핵심 아키텍처로 구성되어 있습니다. ① 선언적 구성 기반의 배포 환경 쿠버네티스는 동작을 지시하는 개념보다는 원하는 상태를 선언하는 개념을 주로 사용합니다. 즉 사용자가 설정한 원하는 상태(Desired State)와 현재의 상태(Current State)가 일치하는지를 지속적으로 체크하면서 업데이트합니다. 결과적으로 ‘이렇게 되어야 해!’ 라는 선언적 방식으로 명령을 주면 쿠버네티스는 이를 해석하여 컨테이너들을 자동으로 관리하게 됩니다. ② 기능 단위의 분산 쿠버네티스에서는 각각의 기능들이 모두 독립적인 컴포넌트로 분산되어 있습니다. 앞으로 후술할 쿠버네티스 ‘APIserver’를 통해 내부 컴포넌트들을 컨트롤 하고 있습니다. ③ 클라스터 단위의 중앙 제어 쿠버네티스는 가용할 수 있는 리소스를 클러스터 > 노드 > 파드 단위로 추상화 하여 관리합니다. 각각의 클러스터를 통해 노드를 관리하고 노드 안의 컨테이너를 효율적으로 관리할 수 있습니다. ④ API 기반의 네트워킹 쿠버네티스의 구성 요소들은 오직 ‘APIserver’를 통해서만 상호 접근이 가능한 구조를 가지고 있습니다. 마스터 노드의 ‘Kubectl’라는 컴포넌트를 거쳐 실행되는 모든 명령은 이 API 서버를 거쳐 수행되며, 워커 노드에 포함된 ‘Kubelet’, ‘Kube-proxy’ 역시 API 서버를 통해 상호작용하게 되어 있습니다. │쿠버네티스의 오케스트레이션 기능 컨테이너 오케스트레이션의 핵심은 컨테이너의 프로비저닝, 배포, 네트워킹, 확장 가용성, 라이프사이클 관리, 상태 모니터링 일체를 자동화하는 데 있습니다. 쿠버네티스가 제공하는 오케스트레이션 기능은 위의 컨테이너 관리 이슈에 대한 적절한 해결책을 제공합니다. 이미지 출처 ⓒ https://kubernetes.io/ko ① 오토스케일링 (Auto-Scaling) 쿠버네티스에서 생성하고 관리할 수 있는 가장 작은 컴퓨팅 단위를 파드(Pod)라고 부르는데요. 쿠버네티스는 각 클러스터 안에 있는 노드의 CPU와 메모리 자원에 대한 할당을 Pod를 통해 자동으로 조정합니다. 만약 부하가 증가하여 리소스를 과하게 점유하고 있다면 자동으로 파드 복제본이 실행되어 가용성을 확보할 수 있습니다. ② 스케줄링 (Scheduling) 컨테이너를 일정한 알고리즘에 기초하여 구체적으로 어떤 노드에서 움직이게 할지 배치하는 것을 스케줄링이라고 합니다. ‘Kube Scheduler’라는 컴포넌트를 통해 클러스터 내에 실행할 파드를 노드에 스케줄링 할 수 있습니다. ③ 오토 힐링 (Auto-Healing) 쿠버네티스는 사용자가 지정한 컨테이너의 상태를 지속적으로 관찰하여 비정상적인 상태를 감지하면 컨테이너를 재시작하고 스케줄링을 빠르게 재시작 할 수 있습니다. 사용자의 선언적 상태에 따라 응답하지 않은 컨테이너를 새롭게 구동 시킬 수 있습니다. ④ 분산 부하 (Load-Balancing) 하나의 서비스에 여러 개의 컨테이너가 구동 시, 서비스에 들어오는 요청을 컨테이너들 사이에 균등하게 분배하여 부하를 분산시킵니다. 이를 통해 급증하는 서비스 요청에 대해 효율적인 대응이 가능합니다. │쿠버네티스의 구성요소 쿠버네티스는 총 네 가지의 구성요소로 이루어져 있습니다. 이미지 출처 ⓒ https://kubernetes.io/ko ① 클러스터 (Cluster) CNCF 재단에 따르면 클러스터는 공통의 목표를 위해 작동하는 애플리케이션의 그룹이라고 정의하고 있습니다. 쉽게 표현하면, 클러스터는 컨테이너를 통해 실행되는 여러 서비스들의 집합이라고 할 수 있겠는데요. 클러스터의 구성 목적은 애플리케이션의 효율적인 관리에 그 목적이 있습니다. 일반적으로 컨트롤 타워 역할을 하는 마스터 노드와 컨테이너가 실행되는 워커 노드로 구성되어 있습니다. ② 마스터 노드 (Master Nodes) 마스터 노드는 클러스터 전체를 관리하는 컨트롤 타워의 역할을 합니다. 대규모의 컨테이너 관리를 위해 각 워커 노드들의 리소스 사용률을 고려하여 컨테이너 배치와 모니터링이 필요한데요. 클러스터 내에서 이 역할을 수행하는 노드를 마스터 노드라고 부릅니다. ③ 워커 노드 (Worker Nodes) 워커 노드는 마스터 노드의 컨트롤을 받아 실제 컨테이너를 실행하고 쿠버네티스 실행 환경을 관리합니다. ‘Kubelet’이라는 노드 컴포넌트를 통해 파드의 실행을 직접 관리하며 APIserver와 통신하게 됩니다. 하나의 노드는 일반적으로 여러 개의 파드로 구성됩니다. 마스터 노드를 통해 파드에 대한 스케줄링을 자동으로 처리할 수 있습니다. ④ 파드 (Pod) 쿠버네티스에서 생성하고 관리할 수 있는 가장 작은 컴퓨팅 단위입니다. 위의 그림과 같이 하나의 파드 안에 다수의 컨테이너 혹은 단일 컨테이너로 구성될 수 있는데요. 쿠버네티스는 파드를 통해 컨테이너가 동일한 리소스 및 로컬 네트워크를 공유하게 합니다. 위와 같은 방식으로 컨테이너를 그룹화하면 분산된 환경에서도 동일한 하드웨어를 공유하는 것처럼 컨테이너를 서로 통신할 수 있도록 만듭니다. 파드의 사용 목적은 단순합니다. 일반적으로 서로 다른 컨테이너들이 각기 다른 기능들을 수행하며 하나의 완전한 애플리케이션으로 이루어 지게 되는데요. 이 때, 파드를 통해 각 컨테이너들의 내부 통신이 가능하게 하고 모든 컨테이너에 동일한 환경을 제공해 줄 수 있습니다. 요약하면 파드는 컨테이너가 제공하는 모든 기능을 활용하는 동시에 프로세스가 함께 실행되는 것처럼 보이게 하는 역할을 합니다. │쿠버네티스의 주요 컴포넌트 쿠버네티스의 주요 컴포턴트를 컨트롤 플레인 컴포넌트와 노드 컴포넌트로 나눠서 살펴보겠습니다. ① 컨트롤 플레인 컴포넌트 (Control Plane Components) 마스터 노드의 컨테이너, 워커 노드의 관리는 컨트롤 플레인 컴포넌트를 통해 이루어집니다. 컨트롤 플레인 컴포넌트는 클러스터 전체의 워크로드 리소스 등 주요 구성 요소들을 배포하고 제어하는 역할을 합니다. * Kube-APIserver API서버 라는 이름에서 말해주듯이 쿠버네티스의 컴포넌트와 사용자와의 접점 역할을 맡고 있습니다. 쿠버네티스에서 클러스터의 모든 구성 요소들은 오직 API서버를 통해서만 상호 접근이 가능하도록 설계되어 있습니다. 쿠버네티스의 중앙관리자라는 표현이 어울릴지 모르겠지만, 파드의 생성부터 스케줄링, etcd와의 통신까지 쿠버네티스의 모든 동작 과정에 API서버는 쿠버네티스의 중심에 있습니다. * etcd etcd는 클러스터 안의 각 구성요소에 대한 정보가 키-값 형태로 저장된 자체적인 데이터베이스입니다. 현재 클러스터에 있는 컴포넌트가 몇 개인지, 각각의 파드들이 어떤 노드에 붙어 있는지, 어떤 컨테이너를 들고 있는지에 대한 모든 정보가 etcd에 저장됩니다. 중요한 점은 etcd가 다운된다면 클러스터는 제대로 동작하지 못하게 되므로 자체적인 백업 스케줄링은 쿠버네티스 관리에 필수 요소라고 할 수 있습니다. * kube-controller-manager 컨트롤러 매니저는 클러스터 내에 작업 중인 다양한 리소스들을 모니터링하며 사용자가 설정한 원하는 상태(Desired State)와 현재의 상태(Current State)가 일치하도록 관리하는 작업을 합니다. 주요 컨트롤러로는 파드 복제를 유지해 주는 레플리카셋(ReplicaSet), 앱 배포를 세밀하게 관리할 수 있는 디플로이먼트(Deployment) 등으로 구성되어 있으며, 하나의 패키징 된 형태를 가지고 있습니다. * Kube-Scheduler 스케줄러는 각 파드들이 어떤 노드에서 작업을 수행할지 결정해 주는 역할을 맡고 있습니다. 비유하자면 작업 장소를 선택해 주는 의사 결정만 담당하고 있으며 실질적인 배치 작업은 아래 설명할 Kubelet이 담당하고 있습니다. ② 노드 컴포넌트 (Node Components) 노드 컴포넌트는 노드에서 작동하는 파드들을 관리하기 컴포넌트입니다. 워커 노드뿐 아니라 마스터 노드에서도 존재합니다. * Kubelet Kebelet은 클러스터의 모든 노드에서 실행되는 에이전트입니다. 파드의 실행을 직접적으로 관리한다고 볼 수 있는데요. 컨테이너디(Containerd), 크라이오(CRI-O) 같은 컨테이너 런타임과도 통신이 가능하며 노드 내에 구동 중인 컨테이너에 대한 라이프사이클을 관리합니다. 본래 쿠버네티스에서는 컨테이너 생성과 실행을 위한 런타임 엔진으로 도커(Docker)를 지원해왔으나, 2022년 2월 기준으로 완전히 중단되었습니다. 물론 런타임 엔진에서 도커가 제외된다는 것이 클러스터에서 도커 자체를 사용하지 못하게 된다는 뜻은 아닙니다. * Kube-proxy Kube-proxy는 노드에서 구동되는 쿠버네티스 네트워크 프록시입니다. 쿠버네티스에서 서비스라고 불리는 내부/외부 트래픽을 어느 파드로 전달할 것인지에 대한 규칙을 생성하고 관리하는 역할을 합니다. 。。。。。。。。。。。。 쿠버네티스의 주요 오케스트레이션 기능과 쿠버네티스의 주요 구성 요소 및 컴포넌트들을 살펴보았는데요. 쿠버네티스만이 컨테이너의 관리 복잡성을 해결할 수 있는 유일한 오픈소스는 아닙니다. 아파치 소프트웨어 재단에서 개발한 ‘아파치 메소스(Apache Mesos)’, 도커에서 개발한 ‘도커 스웜(Docker Swarm)’ 등의 컨테이너 관리 오픈소스도 있지만 2024년 현재 쿠버네티스는 독점적인 위치를 차지하고 있습니다. 무엇보다 3대 퍼블릭 클라우드사인 AWS, Azure, GCP 모두 매니지드 쿠버네티스 플랫폼을 제공하고 있습니다. 국내 퍼블릭 클라우드인 kt cloud, 네이버클라우드, NHN클라우드, 가비아, 카카오클라우드, 삼성클라우드플랫폼 등 모두 각 클라우드 환경에 최적화된 쿠버네티스 서비스를 제공하고 있죠. 또한, RedHat은 쿠버네티스 기반의 오픈시프트(OpenShift)를 통해 CaaS(Container as a Service) 시장의 선점을 노리고 있습니다. 스타트업과 대기업을 가리지 않고 기업에서 운영하는 컨테이너 기반의 애플리케이션이 복잡화됨에 따라 컨테이너 오케스트레이션 관리 도구인 쿠버네티스는 이제 기업 IT 운영전략의 핵심 요소가 되었습니다. 제니우스 쿠버네티스 모니터링 화면 예시 브레인즈컴퍼니의 제니우스(Zenius) 역시 컨테이너 모니터링뿐 아니라 쿠버네티스에 대한 모니터링을 환경을 제공하고 있습니다. 멀티 클러스터 환경에서의 모든 클러스터에 대한 모니터링뿐 아니라 Object Meta 정보를 제공하며 다양한 임계치 기반의 이벤트 감시 설정으로 선제적 장애 대응이 가능합니다. 📚참고 자료 쿠버네티스 공식 문서: Kubernetes Components 쿠버네티스 공식 문서: Options for Highly Available Topology 쿠버네티스 공식 문서: Container runtimes
2024.02.05
기술이야기
NMS(네트워크 관리 시스템)에 대해서 꼭 알아야 할 네 가지
기술이야기
NMS(네트워크 관리 시스템)에 대해서 꼭 알아야 할 네 가지
산업 분야를 통틀어서 최근 모든 기업과 공공기관들의 ‘네트워크’ 활용도와 의존도가 빠르게 증가하고 있습니다. 따라서 이제 ‘안정적인 네트워크 관리 = 성공적인 비즈니스 운영’이라고도 할 수 있는데요. 오늘은 네트워크를 안정적으로 유지해서 성공적인 비즈니스 운영을 도와주는, NMS(Network Management System, 네트워크 관리 시스템)에 대해서 자세히 알아보겠습니다. NMS의 등장 배경, 시대별 변화, 그리고 핵심 개념과 실제 사례까지 NMS에 대해서 꼭 알아야 할 네 가지는 무엇일까요? 。。。。。。。。。。。。 │NMS(네트워크 관리 시스템)의 기본 개념과 등장 배경 NMS란 다양한 이기종 네트워크 장치(Network device)를 중앙에서 관리하고 감시할 수 있는 시스템입니다. 즉 전체 네트워크를 중앙 시스템을 통해 모니터링, 진단, 분석, 가용성을 유지하기 위해 만들어진 시스템을 말합니다. NMS의 필요성과 등장 배경은 OSI의 SMFAs(Specific Management Functional Areas)의 다섯 가지 영역(FCAPS)로 정리할 수 있습니다. 장애관리(Fault Management): 경보 감시, 고장 위치의 측정 시험 등 NMS의 첫 번째 관심사는 네트워크의 가용성을 보장하는 것입니다. 네트워크에서 발생하는 장애를 감지·격리·복구하는 과정으로, 네트워크 가동 시간을 최대화하고 서비스 중단을 최소화하는 것이 목적입니다. 구성 관리(Configuration Management): 설비제공, 상태 제어, 설치 지원 등 네트워크의 구성 요소(하드웨어, 소프트웨어, 네트워크 설정 등)를 관리하는 과정으로, 네트워크의 변경 사항을 추적하고 일관된 네트워크 성능과 안정성을 유지하는 데 중요합니다. 계정관리(Accounting Management): 계정(과금) 정보의 수집/저장/제어 등 네트워크 자원의 사용량을 추적하고 기록하는 과정이며, 자원의 할당과 과금에 사용됩니다. 사용량, 사용시간, 서비스 품질, 장비 사용률 등 네트워크 관리 및 운영에 관한 비용 할당 시 필요합니다. 성능 관리(Performance Management): 성능감시/트래픽 관리/품질관리/통계관리 네트워크의 트래픽이 특정 시간에 급증하는 것을 성능 관리 시스템이 감지했을 때, 이 정보를 사용하여 네트워크 용량을 적절히 조정하거나 트래픽을 분산시킬 수 있습니다. 보안 관리(Security Management): 보안/안전/기밀 관리 등 보안 관리 시스템은 사용자의 무단 엑세스 시도를 감지하며 즉시 차단할 수 있는 접근 제어, 인증, 암호화, 키관리 등을 관리하는 것과 관련이 있습니다. 네트워크 인프라의 로그 모니터링을 통해 잠재적인 보안 문제를 사전에 예방할 수 있습니다. 위와 같은 등장 배경과 필요성을 가진 NMS, 시대별로는 어떻게 변해왔는지 살펴보겠습니다. │NMS(네트워크 관리 시스템)의 시대별 변화 1980년대 초부터 현재에 이르기까지 NMS의 시대별 변화를 간략히 살펴보면 다음과 같습니다. 1980년대 ~ 2010년대 초 1980년대에 등장한 초기 NMS는 단순한 모니터링과 제어에 둔 간단한 형태였고, 특정 벤더의 하드웨어에 종속되고 표준화가 제대로 이루어지지 않았었습니다. 1990년대에 들어서 네트워크의 복잡성이 커지면서 NMS의 필요성도 증가했습니다. 이때 보안 기능이 향상된 SNMPv2와 같은 표준 프로토콜이 도입되면서, 다양한 제조사의 장비를 하나의 시스템으로 통합 관리할 수 있게 되었습니다. 또한 네트워크뿐만 아니라 서버까지 같이 관리하기 위한 SNMS(Server and network Management System)와, 더 나아가 EMS(ITIM)도 나오게 되었습니다. 이후 2000년대 초반에 웹 기반 NMS 솔루션이 등장하면서, 사용자 친화적인 인터페이스와 원격 접근 기능 등을 통해 효율적인 네트워크 관리가 가능해졌습니다. 2010년대 중반 ~ 2010년대 후반 NMS는 2010년대 중반부터 등장한 클라우드 컴퓨팅, 빅데이터, 인공지능(AI) 등의 기술과 함께 더욱 고도화되었습니다. 점점 더 다양한 네트워크와 서비스를 통합 관리하며, 자동화된 분석과 의사결정을 지원하게 되었습니다. 최신 동향 최근에는 AI와 머신러닝을 활용하여 예측 분석, 네트워크의 자동 최적화, 사이버 보안 통합 등이 NMS의 중요한 요소로 강조되고 있습니다. 또한 새로운 네트워크 기술인 5G의 도입으로 NMS는 더욱 복잡해지고 다양한 네트워크 환경을 관리하게 되었습니다. 이처럼 NMS는 네트워크 기술의 발전과 산업의 변화에 발맞추어, 지속적이고 빠르게 발전하고 있습니다. 이제 NMS의 구조에 대해서 자세히 알아보겠습니다. │NMS(네트워크 관리 시스템)의 3-Tier 아키텍처 NMS는 3-Tier 아키텍처(수집-저장-표출)로 구성되어 있습니다. 각각 독립된 계층으로 구분되어 있는데요. 특정 부분의 업그레이드가 필요할 때 해당 계층만 영향을 주기 때문에 시스템을 보다 쉽게 관리할 수 있습니다. 다시 정리한다면 NMS Manager에서 SNMP · ICMP · RMON 등 다양한 네트워크 프로토콜을 활용하여, 네트워크 자원의 성능 데이터를 수집합니다. 만약 Managed Device 장비들이 한계치에 도달하거나 장애가 발생했을 경우, 즉각적으로 User Interface를 통해 사용자에게 알립니다. 그렇다면 NMS의 핵심 기능은 무엇일까요? │NMS(네트워크 관리 시스템)의 핵심 기능 네트워크 장애에 대한 신속한 파악과 대응이 반드시 필요한 NMS의 핵심 기능에는 어떤 것들이 있는지 자세히 살펴보겠습니다. 장애 관리 네트워크 인프라의 결함이나 오류를 탐지하고 경고 및 알림을 생성하여, 관리자가 신속하게 대응할 수 있도록 지원합니다. 이를 통해 다운타임을 최소화하고 서비스 지속성을 보장합니다. 예를 들어 네트워크의 라우터가 다운될 경우, NMS는 즉시 관리자에게 경고를 보내 신속한 문제 해결을 도와줍니다. 성능 관리 네트워크 구성 자원인 트래픽 가용성, 응답시간, 사용량, 오류량, 처리 속도 등을 추적하고 최적화합니다. 또한 부하가 발생하지 않도록 문제점을 미리 검출해 안정적인 네트워크 운영이 될 수 있도록 합니다. 예를 들어 특정 애플리케이션이 과도한 대역폭을 소비할 경우, NMS가 문제를 정확히 찾아내서 관리자가 네트워크를 최적화할 수 있도록 돕습니다. ▲ 제니우스(Zenius)를 활용한 성능 모니터링 화면 예시 구성 관리 관리자는 NMS를 통해 분산된 네트워크 장치 구성 프로세스를 자동화하여, 네트워크 전반에 걸쳐 일관성과 정확성을 보장할 수 있습니다. 이러한 핵심 기능을 하는 NMS의 구체적인 활용 사례를 살펴보겠습니다. │NMS(네트워크 관리 시스템)의 활용 사례 IT 분야뿐 아니라 제조업, 금융, 여행, 유통 및 물류 등 전 분야에 걸쳐서 NMS가 사용되고 있습니다. 특히 처리 속도, 가용성, 보안 등이 중요한 금융산업의 경우에 NMS를 통한 안정적인 관리가 중요한데요. 브레인즈컴퍼니의 제니우스(Zenius) EMS를 사용하고 있는 S금융사의 사례를 자세히 살펴보겠습니다. S금융사, Zenius NMS를 통해 완벽하게 네트워크를 관리하게 되다 S금융사는 서버만 800ea, NW 14,000ea 이상의 대규모 인프라를 보유하고 있었습니다. 하지만 Zenius NMS 도입 전까지는 서비스 장애에 영향을 준 네트워크 장애 원인 파악을 위한 장기간 투자하고 있는 상황이었고, 네트워크 운영 현황 데이터 수집과 분석에 많은 시간이 소요되고 있었습니다. 무엇보다 신속한 장애 인지와 처리가 어려워서 큰 고민이 있었는데요. 위 도표에서도 살펴본 것처럼 Zenius NMS 도입을 통해, 이전에 고민과 단점을 극복하고 안정적으로 네트워크 관리를 할 수 있게 되었습니다. 특히 Zenius NMS는 고성능의 Manager를 제공하고 있어 대규모 환경에서도 장애를 신속하게 판단하여, 타사 대비 많은 자원을 효율적으로 관리할 수 있습니다. 。。。。。。。。。。。。 지금까지 살펴본 것처럼 NMS는 네트워크 인프라를 효율적으로 관리하는데 가장 중요한 역할을 합니다. 제니우스(Zenius) NMS처럼 고성능의 Manager를 기반으로 네트워크 상태를 신속하게 판단하며, 유저 중심의 통합 UI를 제공하는 NMS 솔루션을 꼭 선택하시기 바랍니다!
2024.01.31
회사이야기
제니우스(Zenius), 웰메이드 드라마와 언론사에서도 주목하다
회사이야기
제니우스(Zenius), 웰메이드 드라마와 언론사에서도 주목하다
오늘 벌써 금요일이네요! 여러분들은 주말 동안 어떻게 보내시나요? 대부분 휴식 시간을 갖거나 등, 소중한 사람들과 함께 시간을 보내실 텐데요. 저 또한 주말 동안 푹 쉬면서, 웰메이드 드라마 를 보며 충전하는 편입니다. 최근에 저는 ENA에서 방영했던 ‘악인전기’를 몰아봤습니다. 악인전기는 생계형 변호사가 엘리트 악인으로 변모하는 이야기를 담고 있습니다. 개인적으로 웰메이드의 완성은 명품 연기력이라고 생각하는데요. 흠잡을 때 없는 명품 연기를 선보여주신 신하균 배우님이 출연하여, 드라마에 더 몰입할 수 있었습니다. 그렇게 악인전기를 몰아보며 에너지를 충전하던 중, 깜짝! 놀라고야 말았는데요. 。。。。。。。。。。。。 웰메이드 드라마에 등장한 어디서 많이 본 화면 ▲악인전기 5화 캡쳐 ⓒGENIE TV 악인전기 5화에 정말 낯익은 화면을 볼 수 있었습니다. 바로 제니우스(Zenius) 모니터링 화면이었습니다. 극 중에서 서버 관련된 에피소드 중, 제니우스 SMS(Zenius SMS) 모니터링 화면이 등장한 것이죠! 이 장면을 캡처해서 같은 팀원분들에게 자랑하기도 하고, 메일로도 공유했습니다. 매번 보는 Zenius 제품이었지만, 드라마를 통해 볼 수 있어서 신기하고 뿌듯했습니다. 여기서 잠깐! Zenius SMS의 깨알 자랑을 더 한다면, 초 단위 실시간 그래프를 통해 주요 성능 정밀한 분석이 가능합니다. 이 밖에도 임계치 기반의 장애를 감지하고 통보하며, 체계적인 장애관리를 지원하고 있습니다. Zenius SMS는 모니터링뿐만 아니라, 보안 관리까지 추가적으로 제공해 드리고 있는데요. 행정안전부가 권고하는 보안 항목들을 자동적으로 점검해 드리며, 보안 가이드까지 제공하여 사용자 편의성을 향상시킵니다(더 많은 자랑을 하고 싶지만 일단 여기까지..!). 한국인터넷진흥원도 선택한 제니우스 대시보드 ▲ⓒvoakorea 사실 드라마 ‘악인전기’뿐만 아니라, 제니우스 대시보드(Zenius Dashboard)가 기사와 신문 지면에 노출된 이력도 있는데요. 위 사진은 한국인터넷진흥원(KISA) 침해대응센터에 제공해 드린 대시보드 화면입니다. 고객사에서 사용하던 로그와 데이터를 연계하여, 원하는 방향으로 화면을 커스터마이징한 것인데요. ‘맞춤’으로 제작된 대시보드를 통해 보안 침해 상황을 직관적이고 효율적으로 관리할 수 있어, 고객사에서도 크게 만족하셨습니다. 특히 최근 소프트웨이브2023 전시회에서도 “대시보드가 예쁘다”라는 피드백과 참관객들 또한 매우 많았습니다. 。。。。。。。。。。。。 제가 재미있게 본 드라마에서 제니우스 제품을 우연히 발견하며, 신기하고 자랑스럽기도 했던 순간이었습니다. 앞으로도 제니우스 찾기는 계속 됩니다 To be continued-!
2024.01.12
기술이야기
테라폼(Terraform)의 모든 것, 그리고 AWS EC2 생성하기
기술이야기
테라폼(Terraform)의 모든 것, 그리고 AWS EC2 생성하기
클라우드 환경이 도래하면서 CSP(Cloud Service Provider)에서는 콘솔을 통해 클라우드 자원에 쉽게 접근할 수 있게 되었습니다. 하지만 서비스를 운영하며 발생하는 다양한 이슈를 콘솔에서 전부 관리하기에는 무리가 있습니다. 반복적인 작업과 휴먼에러가 발생하기 때문이죠. 이러한 문제를 한 번에 해결할 수 있는 방법이 바로 IaC(Infrastructure as Code)입니다. 인프라를 코드로 관리하는 컨셉으로, 효율적인 데브옵스와 클라우드 자동화 구축을 위해 ‘꼭’ 필요한 기술로 각광받고 있죠. 그중에서도 ‘테라폼(Terraform)’은 가장 강력한 IaC 도구로 꼽힙니다. “테라폼(Terraform)이란?” 테라폼은 하시코프(Hashicorp) 사에서 Go 언어로 개발한 오픈소스 IaC 도구입니다. 테라폼에서는 HCL(Hashicorp Configuration Language, 하시코프 설정 언어)을 사용해 클라우드 리소스를 선언합니다. *쉽게 설명한다면 코드로서 클라우드 인프라 서버를 더 효율적으로 구축하고, 운영할 수 있는 오픈소스 소프트웨어죠. 따라서 이번 시간에는 테라폼의 기본동작방식, 특장점, 명령어의 종류, 구체적인 활용 예시에 대해서 살펴보겠습니다. 。。。。。。。。。。。。 테라폼의 기본동작방식 테라폼은 Write, Plan, Apply 기본동작방식으로 이루어져 있는데요. Write 단계에서는 HCL 언어로 필요한 리소스를 선언하고, Plan 단계에서는 앞에서 선언된 리소스들이 생성 가능한지 테스트 및 예측 실행을 수행하며, Apply 단계에서는 선언된 리소스들을 CSP에 적용하는 과정을 거칩니다. *쉽게 설명한다면 Write 단계는 코드 기반으로 선언하고, Plan 단계는 코드 기반으로 검토하며, Apply 단계는 코드 기반으로 리소스를 생성하는 것이죠. 테라폼의 기본개념 테라폼의 주요 기본개념이자 구성요소입니다. 전부 필수적인 내용이지만 특히 Resource, Provider, State는 많이 쓰이는 중요 개념이며 하단 예시에도 나오니 꼭 기억해 두세요! 테라폼의 장점 테라폼은 다양한 장점들이 있는데요. 그중 가장 큰 장점은 자동화를 통해 코드 기반으로 서버 운영 및 관리가 가능한 점입니다. 초보자도 쉬운 코드 재사용을 통해, 효율적인 협업이 가능하고 생산성도 향상시킬 수 있죠. 또한 테라폼은 AWS, GCP(구글), Azure(MS), Naver Cloud(네이버클라우드) 등 다양한 환경에서 지원이 가능한데요. 즉 테라폼만으로도 멀티 클라우드 리소스들을 선언하고 코드로 관리할 수 있습니다. 테라폼의 명령어 테라폼에서 자주 쓰이는 명령어입니다. 그중에서도 코드를 통해 실행될 내용을 미리 확인하는 Plan, 코드 기반으로 리소스를 생성하는 Apply, 그리고 상태를 확인하는 State가 핵심 명령어로 많이 사용되고 있습니다. 테라폼의 활용예시 테라폼을 통해 많은 것을 할 수 있지만, 이번 시간에는 테라폼을 이용하여 AWS에 가장 중심이 되는 서비스인 EC2(AWS에서 제공하는 서버)를 생성해 보겠습니다. 또한 제니우스(Zenius) 모니터링까지 살펴봅시다! 우선 앞서 [테라폼의 기본동작방식]에서 설명했던 것처럼 테라폼은 Write, Plan, Apply 단계를 거치게 되는데요. 테라폼 명령어가 어떤 방식으로 쓰이고 반응하는지, 예시를 통해 확인해 볼까요? > Write 단계: Provider 및 Resource 선언하기 Writer 단계에서는 [테라폼의 기본개념]으로 언급된 *Provider, Resource를 코드 기반으로 선언한 부분을 확인할 수 있습니다. > Plan 단계: Terraform plan Plan 단계에서는 *Terraform plan을 통해 검증을 하게 되는데요. 위 사진 하단에 나와있듯 1개가 추가되고, 0개가 변하고 0개가 없어진다는 의미입니다. 이처럼 +을 통해 추가되는 인프라의 상세정보를 확인할 수 있습니다. > Apply 단계: Terraform apply Apply 단계에서는 앞서 구축 계획에 문제가 없다면 *Terraform apply를 통해 검증된 결과를 바탕으로 실제 인프라에 적용하는 단계입니다. apply 명령을 이용하여 리소스를 생성·수정·삭제하는 것이죠. > State로 확인해 보기 State list 명령어를 통해서도 확인해 보니, 1개의 인스턴스(instance, 클래스의 현재 생성된 오브젝트)가 확인 되네요. 앞서 State list 명령어를 통해 생성된 ‘부분’만 확인했다면, 이번에는 State show 명령어를 통해 어떻게 생성이 됐는지 ‘상세’하게 확인해 봅시다. State 명령어뿐만 아니라 State는 terraform.tfstate 파일로도 확인 가능해 인스턴스 Name 또한 비교해 보았습니다. 테라폼을 이용해 최종 목표였던 AWS에 EC2 인스턴스가 잘 생성이 되었는지 확인해 봐야겠죠? *빨간색 네모 박스에 표기되어 있는 것처럼 잘 생성 되었습니다. 여기서 다시 주목할 점은 AWS의 인스턴스를 생성하기 위해선, 여러 가지 절차를 거쳐야 하는데요. 테라폼을 이용하면 ‘코드’ 하나로 바로 생성이 가능하다는 점입니다. 코드 기반으로 서버운영 및 관리의 자동화라는 특장점 또한 다시 한번 상기해 볼 수 있겠죠? 이처럼 인프라 서버를 효율적으로 구축하는 테라폼을 이용하여, AWS에 EC2를 생성해 보았습니다. 하지만 ‘생성’만 중요한 게 아닌, 효율적인 클라우드 인프라 관리를 극대화하기 위해 ‘모니터링’하는 점도 매우 중요한데요. 테라폼처럼 매우 쉽고 효율적인 방법을 소개하겠습니다. 바로 AWS EC2 모니터링이 가능한 클라우드 서비스 모니터링 시스템인 제니우스-CMS(Zenius-CMS) 예시를 통해, 다양한 환경에서 인프라 모니터링을 어떻게 하고 있는지 살펴보겠습니다! Zenius에서 AWS 모니터링하기 Zenius-CMS는 API를 통해 AWS 계정 기반으로 자동 모니터링을 제공하고 있는데요. 테라폼을 통해 AWS에서 EC2가 코드 기반으로 쉽게 생성했던 것처럼, CMS도 간편한 AWS 모니터링 실행이 가능합니다. 위 사진처럼 EC2 클라우드 서버에 대한 성능도 모니터링이 가능하죠. 여기서 새로운 인스턴스를 추가하면, 이 또한 자동으로 모니터링이 됩니다. Zenius-CMS는 EC2뿐만 아니라 RDS, VPC 등 과금 현황까지 통합 모니터링할 수 있는데요. AWS 콘솔에 접속하지 않고도, AWS 주요 성능 지표에 대한 모니터링 추이도 확인할 수 있습니다. 。。。。。。。。。。。。 이번 시간에는 인프라 서버를 효율적으로 구축하는 테라폼에 대해 학습하고, AWS에 EC2를 생성해 보며 활용 예시까지 살펴보았습니다. 또한 제니우스-CMS(Zenius-CMS) 예시를 통해, AWS EC2 모니터링뿐만 아니라 다양한 환경에서 인프라 모니터링 방법을 알 수 있었는데요. 앞으로도 클라우드 환경에서의 인프라 관리뿐만 아니라, 다양한 환경에서의 모니터링이 가능한 제니우스 제품에 많은 관심 부탁드릴게요! 📚참고 자료 모두의 Terraform(테라폼) PART1 - 개념(230313) Terraform(테라폼)이란? 간단 사용기(220711) 테라폼(Terraform) 기초 튜토리얼(200314)
2024.01.11
기술이야기
쿠버네티스와 Helm 등 CNCF의 주요 프로젝트
기술이야기
쿠버네티스와 Helm 등 CNCF의 주요 프로젝트
지난 포스팅을 통해 정리한 것처럼 CNCF는 클라우드 네이티브 생태계의 활성화를 위해, 다양한 오픈소스 프로젝트를 개발하고 공급하고 있습니다. 또한 프로젝트 채택 단계부터 사용 빈도까지의 성숙도를 관리하기 위한, 프로세스 체계를 보유하고 있는데요. 이번 시간에는 CNCF의 주요 프로세스인 쿠버네티스(K8s), Helm 등과 CNCF 프로세스에 대해서 알아보고자 합니다. 。。。。。。。。。。。。 CNCF 프로젝트 프로세스 2023년 10월 기준으로 약 170여 개의 CNCF 프로젝트가 진행 중인데요. 이들 프로젝트는 성숙도에 따라서 샌드박스(Sandbox), 인큐베이팅(Incubating), 졸업(Graduated)으로 나뉩니다. 성숙도 수준에 대한 평가는 CNCF 위원회 멤버들에 의해서 결정되며, 졸업(Graduated) 단계의 프로젝트로 인정받기 위해서는 3분의 2 이상의 찬성 표가 필요합니다. ▲프로젝트 성숙도 단계 Step1. 샌드박스(Sandbox) CNCF의 새로운 프로젝트가 채택되면 Sandbox 단계에서 시작합니다. 이 단계에서는 프로젝트가 CNCF의 가이드라인과 정책에 부합되는지를 확인하는 절차를 주로 거칩니다. Step2. 인큐베이팅(Incubating) Sandbox를 통과한 프로젝트는 Incubating 단계로 집입하며, 이 단계에서는 프로젝트의 커뮤니티와 기술적 성숙도를 더욱 강화하도록 합니다. 해당 프로젝트의 커뮤니티의 규모와 다양성을 평가하고 기능들의 안정성을 검증합니다. Step3. 졸업(Graduated) Incubating 단계를 성공적으로 통과한 프로젝트는 Graduated 단계로 올라갑니다. 높은 수준의 품질과 안정성이 보장되어야 이 단계에 올라갈 수 있는 거죠. 커뮤니티가 활발하게 유지되고 관련자의 참여가 적극적으로 이루어져야 하며, 실제 사용 사례에서 성공한 경험들이 존재해야 합니다. Step4. 사용 사례 검증 Graduated 프로젝트 중 실제로 다양한 산업에서 사용되고, 기업과 조직이 해당 프로젝트를 많이 채택하는지를 평가하여, 지속적인 성장 가능성과 성숙도를 평가합니다. CNCF에서 관리하는 프로젝트 영역은 꽤 넓고 다양한데요. 애플리케이션 개발을 위한 도구부터 컨테이너 오케스트레이션, 서비스 프로비저닝, 모니터링 도구 등 소프트웨어 개발부터 운영까지를 위한 도구들이 존재합니다. 이제부터는 가장 성공적인 프로젝트인 쿠버네티스를 포함하여, Incubating 단계 이상의 프로젝트를 알아보고자 합니다. CNCF의 주요 프로젝트 쿠버네티스(kubernetes) 쿠버네티스는 CNCF에서 최초로 Graduated 단계에 진입한 프로젝트입니다. 컨테이너 오케스트레이션 기능을 통해, 애플리케이션 컨테이너 기반으로 자동화하고 확장할 수 있는 플랫폼을 제공합니다. A. 컨테이너 오케스트레이션 기능 컨테이너화된 애플리케이션을 자동으로 배포·확장하고 관리하는 기능을 제공합니다. 애플리케이션의 변경이 필요할 경우, 개발자가 애플리케이션을 빠르게 수정 및 배포하고 운영할 수 있게 합니다. B. 스케일링 기능 리소스 사용량이나 사용자 트래픽 증가에 따라 자동으로 애플리케이션을 확장·축소하는 오토 스케일링 기능을 제공합니다. C. 롤백 기능 문제가 발생된 애플리케이션의 경우, 롤백 기능을 제공하여 서비스 장애에 신속히 대응합니다. Helm Helm은 쿠버네티스 환경에서 애플리케이션을 관리하기 위한 도구로 사용됩니다. Helm은 차트라고 불리는 패키지로 애플리케이션을 패키징 하는데요. 이 차트에는 애플리케이션의 설치부터 관리에 필요한 모든 것을 포함합니다. 쉽게 말하면 이 차트라는 기능을 통해 애플리케이션을 탬플릿화하고, 배포하며, 롤백 및 공유하는 역할을 하는 프로젝트입니다. Envoy ▲Envoy를 사용하는 주요 업체 리스트 ⓒenvoyproxy.io Envoy는 클라우드 네이티브 환경에서 애플리케이션의 네트워크 트래픽을 관리하고, 제어하기 위한 프로젝트입니다. 프록시 기능을 수행하고, 클라이언트 서버 간의 통신을 관리하며, 애플리케이션 간의 통신의 보안 향상시킵니다. 여러 애플리케이션 사이에서 부하 분산을 자동화하여 가용성과 성능을 향상시킬 수 있도록 합니다. 부하 분산을 함에도 불구하고 특정 시스템에 부하가 생겨 장애 발생이 생길 경우, 트래픽을 가중치에 따라 다른 시스템으로 분산시키는 역할을 합니다. Containerd Containerd는 쿠버네티스 환경에서 컨테이너를 만들고 실행하는 데 도움을 주는 프로젝트입니다. 개발자가 컨테이너를 만들고 실행시키는 역할을 하며, 필요할 때는 중지하거나 삭제하는 작업을 지원합니다. 컨테이너 실행에 필요한 파일과 설정을 모아 놓은 이미지를 다운로드하고, 저장하며, 불러오는 역할과 같은 이미지 관리 기능도 제공하고 있습니다. Prometheus Prometheus는 시스템이나 애플리케이션의 동작을 실시간으로 모니터링하고, 이상 상황이 발생할 경우 알림을 줄 수 있는 도구입니다. 다양한 데이터를 수집하고 기록하여 차후 분석 용도로 활용할 수 있습니다. 또한 핵심 지표들을 유형 및 종류별로 제공하여, 다각적인 관점에서의 관찰을 지원합니다. 시스템의 리소스부터 애플리케이션의 동작 및 응답 상태를 적시에 확인하게 해줍니다. Fluentd ▲Fluentd 개념 설명 ⓒfluentd.org Fluentd는 다양한 시스템에서 발생되는 로그 데이터를 수집·처리·전송하는 데이터 수집 도구로서, 스플렁크(SPLUNK)와 유사한 역할을 수행하는 프로젝트입니다. 다양한 소스에서 발생되는 로그를 수집할 수 있을 뿐만 아니라, 원하는 목적지의 저장소까지 전송하는 역할을 수행합니다. 예를 들어 Syslog 등을 실시간 수집하고, 이를 Elasticsearch나 Amazon S3 등의 원하는 저장소로 목적지를 설정할 수 있게 합니다. 。。。。。。。。。。。。 지금까지 살펴본 것처럼, CNCF에서 클라우드 네이티브 생태계 활성화를 위해 다양한 프로젝트를 진행하고 있는데요. 브레인즈컴퍼니 역시 클라우드 네이티브 모니터링을 위한 다양한 제품과 기능 등을 속속 출시하고 있습니다. 대표 제품인 제니우스(Zenius)를 통해 클라우드 네이티브의 핵심요소인 컨테이너(Docker)의 상태와 리소를 실시간으로 모니터링할 수 있습니다. MSA 환경을 만들기 위한 필수 도구인 쿠버네티스(K8s)의 Cluster·Node·Pod 등의 구성과 변화를 관찰하며, 이상 상황 알림을 통해 선제적 장애 대응 또한 가능합니다. Zenius에 대해 더 자세히 알고 싶으시다면, 바로 아래 링크를 클릭해 주세요! 🔍더보기 Zenius로 클라우드 네이티브 모니터링하기 CNCF 세 가지 핵심가치(1탄)도 있어요
2024.01.03
기술이야기
클라우드 네이티브의 핵심! CNCF의 세 가지 핵심가치
기술이야기
클라우드 네이티브의 핵심! CNCF의 세 가지 핵심가치
최근 디지털 트랜스포매이션(Digital Transformation)이 IT 트렌드로 자리 잡았습니다. 기업과 조직은 빠르게 변화하는 환경에 대응하고 경쟁에서 앞서기 위해 '클라우드 네이티브 컴퓨팅' 기술을 채택하고 있는데요. 여기서 클라우드 네이티브 컴퓨팅 기술을 연구 및 발전시키고, 생태계를 촉진하는데 중추적인 역할을 하는 커뮤니티가 바로 'CNCF(Cloud Native Computing Foundation)'입니다. 현재 CNCF에서는 Google, Intel, Azure 등 700여 곳 이상의 회원사들이 활동에 참가하고 있습니다. 이번 시간에는 CNCF가 정확히 무엇이고, 추구하는 핵심가치와 주요 프로젝트에 대해 자세히 알아보겠습니다. 。。。。。。。。。。。。 CNCF(Cloud Native Computing Foundation)란 CNCF는 2015년 12월에 리눅스 재단에 의해서 출범된 비영리 단체로, 네이티브 컴퓨팅 기술의 채택을 촉진하는 오픈소스 소프트웨어 재단입니다. CNCF는 클라우드 네이티브 컴퓨팅 플랫폼에서 사용하며, 확장 가능한 애플리케이션을 개발하는데요. 이와 관련된 기술인 컨테이너, 마이크로서비스, 서비스 메쉬 등의 발전을 촉진하여 이러한 기술 패턴을 누구나 이해하고 활용할 수 있도록 하는 것이 목표입니다. ▲총 24개의 CNCF Platinum Members 이러한 클라우드 네이티브 컴퓨팅 환경을 대중화하기 위해 Google Cloud, AWS, MS Azure, Cisco, IBM, Apple, Oracle, Red Hat, VMware, SAP 등 유수의 기업들이 플래티넘 회원사로 참여하여 뜻을 같이 하고 있습니다. CNCF의 세 가지 핵심 가치 CNCF의 핵심가치는 1) 클라우드 네이티브 기술의 촉진 2) 오픈소스 프로젝트 생태계 육성 3) 기술의 표준화 수립으로 정리할 수 있습니다. 이 세 가지 핵심 가치를 더 자세하게 살펴볼까요? CNCF 핵심가치1 : 클라우드 네이티브 기술의 촉진 CNCF는 현대적이고 미래 지향적인 '클라우드 네이티브 기술의 촉진'을 중요한 핵심 가치로 규정하고 있는데요. 이는 CNCF가 오늘날의 IT 생태계의 중심에 서서, 클라우드 네이티브 기술을 지속적으로 연구 및 개발하여 새로운 디지털 전환의 시대를 선도하고자 하는 의지가 담겨 있다고 볼 수 있습니다. CNCF는 기존 온 프레미스(On-Premise) 환경, 그리고 모놀리식(Monolithic)한 개발 환경에서 탈피한 컨테이너, 마이크로서비스, 서비스 메시, 서버리스 등. 보다 혁신적이고 미래지향적인 기술 영역을 보급하고 대중화하기 위한 노력과 지원을 아끼지 않습니다. ▲기존 모놀리식 아키텍처와 마이크로서비스 아키텍처 비교 또한 디지털 트랜스포메이션 과정에서 클라우드 환경으로의 전환이 더욱 효율적으로 이루어질 수 있도록, 클라우드 네이티브 기술과 기업들의 서비스 모델을 재구성하기 위한 방법들을 안내하고 있습니다. 이렇게 새로운 서비스 모델 구축을 통해 민첩성과 효율성을 강화하여, 빠르게 변화하는 IT서비스의 수요에 기민하게 대응하고 고객 요구에 부응할 수 있도록 지원합니다. 여기서 계속 언급되고 있는 '클라우드 네이티브'는 정확히 무엇을 뜻할까요? CNCF의 활동에 대한 이해도를 높이기 위해, 클라우드 네이티브의 의미를 짚어보겠습니다! 📑클라우드 네이티브(Cloud Native)란? 클라우드 네이티브는, 클라우드 컴퓨팅 환경에서 현대적 애플리케이션을 구축·배포·관리할 때의 소프트웨어 접근 방식입니다. 기업과 조직은 고객의 요구를 충족하기 위해 신속하게 업데이트할 수 있는 확장성과 유연성, 그리고 복원력이 뛰어난 애플리케이션을 구축하고자 합니다. 이를 위해 클라우드 네이티브에서 사용되는 기술들은, IT 서비스에 영향을 미치지 않고 애플리케이션을 신속하게 변경합니다. 또한 리소스를 효율적으로 활용하여 빠르게 변화에 대응할 수 있도록 지원하고 있습니다. 위의 개념을 '클라우드 컴퓨팅'과 비교한다면 보다 더 쉽게 이해할 수 있는데요. 클라우드 컴퓨팅은, 클라우드 서비스 제공 업체가 단순히 리소스와 인프라를 클라우드 형태로 제공하는 방식입니다. 여기서 서비스 제공 방식은 기존 '모놀리식' 방식과 크게 다르지 않습니다. ▲클라우드 네이티브의 핵심요소 ⓒPivotal 클라우드 네이티브는 마이크로서비스 아키텍처(MSA)와 컨테이너를 기반으로, IT 서비스의 확장·변경 등에 대응이 용이한 환경입니다. 예를 들어 Ex1) 서비스 수요가 폭증하거나 장애가 생겼을 경우 Ex2) 자동적으로 애플리케이션을 확장하거나 장애가 발생했을 경우에는 대체 가능한 모델을 바로 적용하여 Fail-Over가 손쉽게 이루어질 수 있도록 합니다. CNCF에서는 위 그림과 같이 클라우드 네이티브의 핵심 요소를 마이크로서비스, 컨테이너, 애플리케이션의 개발·통합·배포의 의미를 내포하는 DevOps, CI/CD의 개발 방법론을 포함하여 설명하고 있습니다. CNCF 핵심가치2 : 오픈소스 프로젝트 생태계 육성 CNCF는 다양하고 혁신적인 '오픈소스 프로젝트'를 개발·공급·대중화하여, 클라우드 네이티브 생태계를 활성화하는데 큰 기여를 하고 있습니다. 또한 클라우드 네이티브 컴퓨팅 환경을 구성하고 효율적으로 운영하기 위해, 다양한 오픈소스를 개발하고 있는데요. 누구나 이와 같은 기술들을 이용할 수 있도록 지원합니다. 가장 성공적인 프로젝트는 2018년 8월에 컨테이너 오케스레이션 플랫폼인 'Kubernetes' 프로젝트이며, 컨테이너 생성·실행·종료 등의 역할을 하는 'Containerd', 시스템 모니터링 및 경고 역할을 하는 'Prometheus' 그리고 여러 시스템의 트래픽을 균등하게 분배하여 로드밸런싱을 제공하는 'Envoy' 등이 있습니다. 이처럼 클라우드 네이티브 생태계 활성화를 위한 다양한 프로젝트를 실행하며 배포하고 있습니다. ▲CNCF 개발 완료된 프로젝트 이외에도 클라우드 네이티브 커뮤니티인 이벤트·웨비나·워크샵 등을 활성화하여, 온오프라인 영역에서 개발자들 간의 교류를 원활하게 합니다. 개발자들이 오픈소스 프로젝트를 효과적으로 활용할 수 있도록, 사용법에 대한 교육과 튜토리얼을 제공하기도 합니다. 이를 통해 많은 기업과 이용자들이 클라우드 네이티브 환경에 손쉽게 접근할 수 있도록 지원하고 있습니다. CNCF 핵심가치3 : 기술의 표준화 수립 CNCF는 클라우드 네이티브 관련 기술의 무분별한 확장과 사용으로 인한 혼란을 방지하고자, 기술의 표준화를 촉진하고 정책의 일관성을 확보하는 노력 또한 지속하고 있는데요. 기술의 안정성과 품질 확보를 위해 재단 자체적으로 테스트와 벤치마킹 등을 수행하고, Best Practice를 공유하여, 기술의 표준화와 성숙도를 유지합니다. 이 외에도 CNCF는 새로운 기술의 적용 가능성과 성숙도를 평가하고, 클라우드 관련 기술을 보유한 회원사 및 파트너와의 협력을 촉진합니다. 이처럼 다양한 형태로 클라우드 네이티브 생태계의 지속적인 발전을 지원하고 있습니다. 。。。。。。。。。。。。 이번 시간에는 CNCF의 정의와 핵심가치를 알아보았는데요. CNCF는 앞에서 소개해 드린 내용처럼, 클라우드 네이티브 생태계 활성화를 위해 다양한 노력을 기울이고 있습니다. 브레인즈컴퍼니 역시 클라우드 네이티브 모니터링을 위한 다양한 제품과 기능들을 속속 출시하고 있으니, 많은 관심 부탁드립니다. 다음 시간에는 [CNCF의 핵심 프로젝트] 주제로 돌아오겠습니다!
2023.12.27
기술이야기
클라우드(Cloud) 관리와 AWS가 뭔가요?
기술이야기
클라우드(Cloud) 관리와 AWS가 뭔가요?
오늘날 IT 인프라 운영환경은 매우 복잡해졌어요. 갑작스러운 환경 변화에 따라 신속한 대응도 필요한 시점이죠. 이러한 현상으로 많은 기업들이 온프레미스(On-premise) 환경에서 클라우드(Cloud) 환경으로 전환하는 추세이기도 해요. 클라우드 컴퓨팅 서비스 중에는 여러 벤더가 있는데요. 대표적으론 Amazon Web Services(AWS), Microsoft Azure, Google Cloud Platform(GCP)가 있어요. 그중 ‘AWS’는 국내 클라우드 시장에서 3년 간 70% 내외의 시장점유율로, 1위를 차지했는데요(*클라우드 서비스 분야 실태조사(2022), 공정거래위원회) 이처럼 높은 점유율을 가진 1) AWS의 주요 서비스를 살펴보고 2) 하이브리드 클라우드 모니터링이 필요한 이유는 무엇인지 3) AWS의 각종 서비스를 모니터링할 수 있는 제니우스(Zenius)도 함께 소개해 드릴게요! AWS(Amazon Web Services)란? AWS는 ‘Amazon Web Services’의 약어로, 아마존 닷컴이 제공하는 클라우드 컴퓨팅 플랫폼 및 서비스의 집합이에요. AWS에서 제공하는 여러 가지 서비스를 이용하면, 기업 및 개인이 필요한 컴퓨팅 리소스를 유연하게 확장하고 관리할 수 있죠. AWS 주요 서비스는 다음과 같아요! AWS 주요 서비스 ▪Amazon VPC(Amazon Virtual Private Cloud) 격리된 네트워크 환경을 구성하게 해주는 서비스예요. AWS의 동일 계정이나, 서로 다른 계정 간에 격리된 네트워크를 연결할 수 있도록 다양한 옵션들을 제공해 줘요. ▪Amazon EC2(Amazon Elastic Compute Cloud) AWS에서 가장 많이 사용되는 컴퓨팅 서비스예요. 가상 서버를 호스팅 할 때 사용하죠. 리눅스나 윈도우 환경 등 다양한 인스턴스 유형을 지원하고, 필요에 따라 성능을 조정할 수 있어요. 생성 가능한 인스턴스 타입은 리전 별 차이가 있으나, 100개~300개에 이를 정도로 방대하답니다. ▪AWS Lambda AWS에서 제공하는 서버리스 컴퓨팅 플랫폼이에요. 여기서 ‘서버리스’란 개발자가 서버의 존재를 신경 쓸 필요가 없다는 뜻이에요. AWS에서는 서버 인프라에 대한 프로비저닝, 유지관리 등을 대신 처리해 주죠. 이처럼 개발자가 비즈니스 로직에 집중하여 코드를 실행하게 해줘요. ▪Amazon S3 AWS에서 제공하는 스토리지 서비스예요. S3는 파일시스템이 아닌 오브젝트 스토리지 서비스로, 모든 파일에 API를 통해 접근 가능해요. 무제한적인 확장성, 높은 가용성과 내구성을 제공하며 단일 파일을 최대 5TB까지 업로드할 수 있어요. ▪Amazon EBS(Amazon Elastic Block Store) EC2 인스턴스에 장착하여 사용할 수 있는 가상 저장 장치에요. EBS를 연결하여 파일을 저장하면, EC2 인스턴스와 관계없이 데이터를 영구적으로 보관 가능해요. 이 밖에도 AWS에서 제공하는 서비스는 매우 방대한대요. 아래 URL로 접속 시, 필요한 서비스 목록 확인이 가능하답니다! 🔍 더 많은 AWS 서비스가 궁금하다면? 온프레미스와 AWS의 차이 온프레미스 방식은, 클라우드 컴퓨팅 서비스가 나오기 전까지 기업에서 전통적으로 사용한 ‘일반적인 인프라 구축 방식’이에요. 온프레미스 환경에서 서버를 운영하면, 호스팅 서비스를 이용하거나 서버를 직접 구매 또는 임대하죠. 그다음 데이터 센터(IDC, Internet Data Center) 또는 기업 전산실에 설치하여 운영해요. 하지만 물리적인 서버를 직접 설치할 경우, 많은 시간과 비용이 소모되어 이를 위한 운영 공간과 인력이 필요할 수 있어요. 예시를 들어 볼게요. 대형 콘서트 예매, 대학교 수강신청, 입시 원서 접수 등 단기간에 트래픽이 급증했다가 감소되는 경우를 생각해 볼까요? 이때 ‘온프레미스 방식’으로 시스템을 구축한다면, 매우 많은 비용 낭비가 발생하게 될 거예요. 반면 AWS의 경우는 어떨까요? 인터넷이 연결된 어디에서든 쉽게 인프라를 구축하고, 사용한 만큼 비용을 지불할 수 있어요. 큰 이벤트를 처리한 후 생성된 리소스를 간편하게 삭제할 수 있죠. 이처럼 온프레미스 방식과 대비한다면, 남는 자원에 대한 비용 고민이 없어지겠죠? 하이브리드 클라우드 모니터링이 필요한 이유 이처럼 AWS는 매우 유연하고 확장성 있는 클라우드 서비스예요. 하지만 모든 서비스를 AWS를 이용해서 서비스하는 것은 한계가 있는데요. 이유는 다음과 같아요. ▪보안 및 규정 준수 민감한 데이터나 규정 준수가 필요한 업무의 경우, 사설 클라우드나 온프레미스 환경의 자체 데이터 센터를 통해 운영하려는 경향이 있어요. ▪비용 효율 AWS는 사용한 만큼 비용을 지불하기 때문에, 예측할 수 없는 트래픽 증가 등에 대응하기에 좋아요. 하지만 서비스에 따라 온프레미스 환경에서 운영하는 것이 비용 측면에서 더 효율적인 경우가 있죠. 이처럼 많은 기업이 AWS를 이용한 클라우드 서비스로 전환하는 추세지만, 당분간 온프레미스 방식과 결합한 하이브리드 클라우드 운영환경이 많은 편이에요. 그렇다면 이러한 하이브리드 클라우드 운영 환경을 모니터링할 수 있는 방법이 없을까요? 바로 ‘제니우스’를 활용한다면 가능해요! 제니우스를 이용한 하이브리드 클라우드 모니터링 구성도 제니우스 하이브리드 클라우드 모니터링 프로세스를 간략히 소개할게요! 우선 클라우드 환경 단계에서는 AWS 서비스를 이용하여 구축된 클라우드 환경 정보를 RestAPI 방식으로 수집해요. CMS Manager는 AWS 클라우드 환경에서 수집한 정보를 취합 후 스토리지에 저장해 주죠. EMS Manager는 온프레미스 환경에서 수집한 정보를 취합 후 스토리지에 저장해 줘요. Web UI에서는 스토리지에 저장된 데이터를 이용하여, 사용자에게 모니터링 정보를 제공한답니다! 제니우스에서 AWS 모니터링하기 제니우스를 이용한 ‘하이브리드 클라우드 모니터링 구성’을 좀 더 자세히 살펴볼까요? ▪CMS > 모니터링 > 요약 : 위 그림은 AWS 통합 요약 페이지인데요. EC2, RDS, VPC 등 과금 현황까지 통합 모니터링할 수 있어요. ▪EMS > 토폴로지 > 클라우드 맵 : 리전 별 자동 구성형 클라우드 맵 페이지에서는, AWS 리전 별 이용하는 서비스와 연관관계를 클라우드 맵이 자동으로 구성해 줘요. ▪CMS > 클라우드서비스 > EC2 > 주요 성능 지표 : 주요 성능지표 모니터링 페이지에서는 AWS 콘솔에 접속하지 않고, AWS 주요 성능 지표에 대한 모니터링 추이를 확인할 수 있어요. ▪EMS > 오버뷰 : 오버뷰를 통한 온프레미스 + AWS 통합 모니터링 페이지에서는, AWS 모니터링 항목과 온프레미스 환경 모니터링 항목의 통합 현황판을 확인할 수 있어요. 이처럼 AWS와 온프레미스 환경은 물론, 더 다양한 환경의 인프라 모니터링을 위해 제니우스를 사용을 해보는 건 어떨까요?
2023.11.16
회사이야기
2023년 하반기 ‘고객사 및 파트너사’ 상생 세미나
회사이야기
2023년 하반기 ‘고객사 및 파트너사’ 상생 세미나
지난 10월 25일, 브레인즈컴퍼니 본사에서 「2023 하반기 ‘고객사 및 파트너사’ 상생 세미나」를 진행했어요! 브레인즈컴퍼니는 매 반기마다 고객사 및 파트너사 분들을 대상으로 상생 세미나를 진행하고 있는데요. 저희 브레인즈컴퍼니의 제니우스 EMS를 더욱 친숙하게 사용하는 것을 돕기 위해 기획되었어요. 이번 2023 하반기 상생 세미나에서는 우진·서울바이오허브·에스이랩·마이티시스템 등 산업용 장비를 만드는 제조기업부터, 바이오산업을 투자해 주는 공공기관까지! 다양한 산업 군의 고객사분들이 적극 관심을 보여주셨는데요. 교육 내용은 제니우스 EMS 패키지 설치, 모니터링 View를 구성하는 단계, 실무적인 모니터링에 초점을 맞춰 실시했답니다. 그럼 바로 2023 하반기 상생 세미나 후기를 들려드릴게요! Zenius SMS와 Zenius NMSㅣ김선효(TC팀) ‘제니우스 SMS(서버 모니터링 솔루션)’와 ‘제니우스 NMS(네트워크 모니터링 솔루션)’부터 교육을 시작했는데요. 우선 전반적인 성능 정보 수집 방식과 설치 방식을 배웠어요. 그다음, 화면을 통해 이벤트 분석하는 방법까지 세세한 교육이 이루어졌답니다. Zenius Overviewㅣ김기현(TC팀) ‘제니우스 EMS 오버뷰’는, 고객의 니즈와 운영 환경에 최적화된 서비스 관제 환경을 구현해 드리고 있어요. 웹과 CS방식의 토폴로지 맵을 통해 관제하는 IT 인프라들 간의 상호 관계도 표현 또한 가능하죠. 이 밖에도 IT 인프라와 네트워크 연결 관계에 대한 컴포넌트 지원, 사용자 니즈에 최적화된 연결 관계도 기반의 View를 제공해 드린답니다. 마무리하며 이번 2023 ‘고객사 및 파트너사’ 상생 세미나를 통해, 핵심적인 IT 인프라인 서버와 네트워크 모니터링 방안을 소개해 드렸는데요. 고객사 및 파트너 사분들께 교육을 진행하며, 브레인즈컴퍼니 또한 ‘IT 인프라 모니터링’ 인사이트를 넓힐 수 있었어요. 오는 11월 29일부터 12월 1일까지 「소프트웨이브 2023」가 진행되는데요. 클라우드 네이티브, 쿠버네티스, MSA 등! 급변하고 있는 IT 인프라 환경 변화를 브레인즈컴퍼니는 어떻게 준비하고 있는지 함께 이야기할 수 있는 자리를 마련했어요. 여러분들의 많은 관심과 참여 부탁드릴게요. 다시 한번 참여해 주신 모든 분께 감사 인사를 드려요! 앞으로도 IT 모니터링의 최전선에서 함께 고민하고, 최적의 관제 환경을 제공하는 브레인즈컴퍼니가 될게요🙇♀️
2023.11.10
기술이야기
카프카를 통한 로그 관리 방법
기술이야기
카프카를 통한 로그 관리 방법
안녕하세요! 저는 개발4그룹에서 제니우스(Zenius) SIEM의 로그 관리 기능 개발을 담당하고 있는 김채욱 입니다. 제가 하고 있는 일은 실시간으로 대용량 로그 데이터를 수집하여 분석 후, 사용자에게 가치 있는 정보를 시각화하여 보여주는 일입니다. 이번 글에서 다룰 내용은 1) 그동안 로그(Log)에 대해 조사한 것과 2) 최근에 CCDAK 카프카 자격증을 딴 기념으로, 카프카(Kafka)를 이용하여 어떻게 로그 관리를 하는지에 대해 이야기해 보겠습니다. PART1. 로그 1. 로그의 표면적 형태 로그(Log)는 기본적으로 시스템의 일련된 동작이나 사건의 기록입니다. 시스템의 일기장과도 같죠. 로그를 통해 특정 시간에 시스템에서 ‘어떤 일’이 일어났는지 파악할 수도 있습니다. 이렇게 로그는 시간에 따른 시스템의 동작을 기록하고, 정보는 순차적으로 저장됩니다. 이처럼 로그의 핵심 개념은 ‘시간’입니다. 순차적으로 발생된 로그를 통해 시스템의 동작을 이해하며, 일종의 생활기록부 역할을 하죠. 시스템 내에서 어떤 행동이 발생하였고, 어떤 문제가 일어났으며, 유저와의 어떤 교류가 일어났는지 모두 알 수 있습니다. 만약 시간의 개념이 없다면 어떻게 될까요? 발생한 모든 일들이 뒤섞이며, 로그 해석을 하는데 어려움이 생기겠죠. 이처럼 로그를 통해 시스템은 과거의 변화를 추적합니다. 똑같은 상황이 주어지면 항상 같은 결과를 내놓는 ‘결정론적’인 동작을 보장할 수 있죠. 로그의 중요성, 이제 조금 이해가 되실까요? 2. 로그와 카프카의 관계 자, 그렇다면! 로그(Log)와 카프카(Kafka)는 어떤 관계일까요? 우선 카프카는 분산 스트리밍 플랫폼으로서, 실시간으로 대용량의 데이터를 처리하고 전송하는데 탁월한 성능을 자랑합니다. 그 중심에는 바로 ‘로그’라는 개념이 있는데요. 좀 더 자세히 짚고 넘어가 보겠습니다. 3. 카프카에서의 로그 시스템 카프카에서의 로그 시스템은, 단순히 시스템의 에러나 이벤트를 기록하는 것만이 아닙니다. 연속된 데이터 레코드들의 스트림을 의미하며, 이를 ‘토픽(Topic)’이라는 카테고리로 구분하죠. 각 토픽은 다시 *파티션(Partition)으로 나누어, 단일 혹은 여러 서버에 분산 저장됩니다. 이렇게 분산 저장되는 로그 데이터는, 높은 내구성과 가용성을 보장합니다. *파티션(Partition): 하드디스크를 논리적으로 나눈 구역 4. 카프카가 로그를 사용하는 이유 로그의 순차적인 특성은 카프카의 ‘핵심 아키텍처’와 깊게 연결되어 있습니다. 로그를 사용하면, 데이터의 순서를 보장할 수 있어 대용량의 데이터 스트림을 효율적으로 처리할 수 있기 때문이죠. 데이터를 ‘영구적’으로 저장할 수 있어, 데이터 손실 위험 또한 크게 줄어듭니다. 로그를 사용하는 또 다른 이유는 ‘장애 복구’입니다. 서버가 장애로 인해 중단되었다가 다시 시작되면, 저장된 로그를 이용하여 이전 상태로 복구할 수 있게 되죠. 이는 ‘카프카가 높은 가용성’을 보장하는 데 중요한 요소입니다. ∴ 로그 요약 로그는 단순한 시스템 메시지를 넘어 ‘데이터 스트림’의 핵심 요소로 활용됩니다. 카프카와 같은 현대의 데이터 처리 시스템은 로그의 이러한 특성을 극대화하여, 대용량의 실시간 데이터 스트림을 효율적으로 처리할 수 있는 거죠. 로그의 중요성을 다시 한번 깨닫게 되는 순간이네요! PART2. 카프카 로그에 이어 에 대해 설명하겠습니다. 들어가기에 앞서 가볍게 ‘구조’부터 알아가 볼까요? 1. 카프카 구조 · 브로커(Broker) 브로커는 *클러스터(Cluster) 안에 구성된 여러 서버 중 각 서버를 의미합니다. 이러한 브로커들은, 레코드 형태인 메시지 데이터의 저장과 검색 및 컨슈머에게 전달하고 관리합니다. *클러스터(Cluster): 여러 대의 컴퓨터들이 연결되어 하나의 시스템처럼 동작하는 컴퓨터들의 집합 데이터 분배와 중복성도 촉진합니다. 브로커에 문제가 발생하면, 데이터가 여러 브로커에 데이터가 복제되어 데이터 손실이 되지 않죠. · 프로듀서(Producer) 프로듀서는 토픽에 레코드를 전송 또는 생성하는 *엔터티(Entity)입니다. 카프카 생태계에서 ‘데이터의 진입점’ 역할도 함께 하고 있죠. 레코드가 전송될 토픽 및 파티션도 결정할 수 있습니다. *엔터티(Entity): 업무에 필요한 정보를 저장하고 관리하는 집합적인 것 · 컨슈머(Consumer) 컨슈머는 토픽에서 레코드를 읽습니다. 하나 이상의 토픽을 구독하고, 브로커로부터 레코드를 소비합니다. 데이터의 출구점을 나타내기도 하며, 프로듀서에 의해 전송된 메시지를 최종적으로 읽히고 처리되도록 합니다. · 토픽(Topic) 토픽은 프로듀서로부터 전송된 레코드 카테고리입니다. 각 토픽은 파티션으로 나뉘며, 이 파티션은 브로커 간에 복제됩니다. 카프카로 들어오는 데이터를 조직화하고, 분류하는 방법을 제공하기도 합니다. 파티션으로 나눔으로써 카프카는 ‘수평 확장성과 장애 허용성’을 보장합니다. · 주키퍼(ZooKeeper) 주키퍼는 브로커를 관리하고 조정하는 데 도움을 주는 ‘중앙 관리소’입니다. 클러스터 노드의 상태, 토픽 *메타데이터(Metadata) 등의 상태를 추적합니다. *메타데이터(Metadata): 데이터에 관한 구조화된 데이터로, 다른 데이터를 설명해 주는 데이터 카프카는 분산 조정을 위해 주키퍼에 의존합니다. 주키퍼는 브로커에 문제가 발생하면, 다른 브로커에 알리고 클러스터 전체에 일관된 데이터를 보장하죠. ∴ 카프카 구조 요약 요약한다면 카프카는 1) 복잡하지만 견고한 아키텍처 2) 대규모 스트림 데이터를 실시간으로 처리하는 데 있어 안정적이고 장애 허용성이 있음 3) 고도로 확장 가능한 플랫폼을 제공으로 정리할 수 있습니다. 이처럼 카프카가 큰 데이터 환경에서 ‘어떻게’ 정보 흐름을 관리하고 최적화하는지 5가지의 구조를 통해 살펴보았습니다. 이제 카프카에 대해 조금 더 명확한 그림이 그려지지 않나요? 2. 컨슈머 그룹과 성능을 위한 탐색 카프카의 가장 주목할 만한 특징 중 하나는 ‘컨슈머 그룹의 구현’입니다. 이는 카프카의 확장성과 성능 잠재력을 이해하는 데 중심적인 개념이죠. 컨슈머 그룹 이해하기 카프카의 핵심은 ‘메시지를 생산하고 소비’ 하는 것입니다. 그런데 수백만, 심지어 수십억의 메시지가 흐르고 있을 때 어떻게 효율적으로 소비될까요? 여기서 컨슈머 그룹(Consumer Group)이 등장합니다. 컨슈머 그룹은, 하나 또는 그 이상의 컨슈머로 구성되어 하나 또는 여러 토픽에서 메시지를 소비하는데 협력합니다. 그렇다면 왜 효율적인지 알아보겠습니다. · 로드 밸런싱: 하나의 컨슈머가 모든 메시지를 처리하는 대신, 그룹이 부하를 분산할 수 있습니다. 토픽의 각 파티션은 그룹 내에서 정확히 하나의 컨슈머에 의해 소비됩니다. 이는 메시지가 더 빠르고 효율적으로 처리된다는 것을 보장합니다. · 장애 허용성: 컨슈머에 문제가 발생하면, 그룹 내의 다른 컨슈머가 그 파티션을 인수하여 메시지 처리에 차질이 없도록 합니다. · 유연성: 데이터 흐름이 변함에 따라 그룹에서 컨슈머를 쉽게 추가하거나 제거합니다. 이에 따라 증가하거나 감소하는 부하를 처리할 수 있습니다. 여기까지는 최적의 성능을 위한 ‘카프카 튜닝 컨슈머 그룹의 기본 사항’을 다루었으니, 이와 관련된 ‘성능 튜닝 전략’에 대해 알아볼까요? 성능 튜닝 전략 · 파티션 전략: 토픽의 파티션 수는, 얼마나 많은 컨슈머가 활성화되어 메시지를 소비할 수 있는지 영향을 줍니다. 더 많은 파티션은 더 많은 컨슈머가 병렬로 작동할 수 있음을 의미하는 거죠. 그러나 너무 많은 파티션은 *오버헤드를 야기할 수 있습니다. *오버헤드: 어떤 처리를 하기 위해 간접적인 처리 시간 · 컨슈머 구성: *fetch.min.bytes 및 *fetch.max.wait.ms와 같은 매개변수를 조정합니다. 그다음 한 번에 얼마나 많은 데이터를 컨슈머가 가져오는지 제어합니다. 이러한 최적화를 통해 브로커에게 요청하는 횟수를 줄이고, 처리량을 높입니다. *fetch.min.bytes: 한 번에 가져올 수 있는 최소 데이터 사이즈 *fetch.max.wait.ms: 데이터가 최소 크기가 될 때까지 기다릴 시간 · 메시지 배치: 프로듀서는 메시지를 함께 배치하여 처리량을 높일 수 있게 구성됩니다. *batch.size 및 *linger.ms와 같은 매개변수를 조정하여, 대기 시간과 처리량 사이의 균형을 찾을 수 있게 되죠. *batch.size: 한 번에 모델이 학습하는 데이터 샘플의 개수 *linger.ms: 전송 대기 시간 · 압축: 카프카는 메시지 압축을 지원하여 전송 및 저장되는 데이터의 양을 줄입니다. 이로 인해 전송 속도가 빨라지고 전체 성능이 향상될 수 있습니다. · 로그 정리 정책: 카프카 토픽은, 설정된 기간 또는 크기 동안 메시지를 유지할 수 있습니다. 보존 정책을 조정하면, 브로커가 저장 공간이 부족해지는 점과 성능이 저하되는 점을 방지할 수 있습니다. 3. 컨슈머 그룹과 성능을 위한 실제 코드 예시 다음 그림과 같은 코드를 보며 조금 더 자세히 살펴보겠습니다. NodeJS 코드 중 일부를 발췌했습니다. 카프카 설치 시에 사용되는 설정 파일 *server.properties에서 파티션의 개수를 CPU 코어 수와 같게 설정하는 코드입니다. 이에 대한 장점들을 쭉 살펴볼까요? *server.properties: 마인크래프트 서버 옵션을 설정할 수 있는 파일 CPU 코어 수에 파티션 수를 맞추었을 때의 장점 · 최적화된 리소스 활용: 카프카에서는 각 파티션이 읽기와 쓰기를 위한 자체 *I/O(입출력) 스레드를 종종 운영합니다. 사용 가능한 CPU 코어 수와 파티션 수를 일치시키면, 각 코어가 특정 파티션의 I/O 작업을 처리합니다. 이 동시성은 리소스에서 최대의 성능을 추출하는 데 도움 됩니다. · 최대 병렬 처리: 카프카의 설계 철학은 ‘병렬 데이터 처리’를 중심으로 합니다. 코어 수와 파티션 수 사이의 일치는, 동시에 처리되어 처리량을 높일 수 있습니다. · 간소화된 용량 계획: 이 접근 방식은, 리소스 계획에 대한 명확한 기준을 제공합니다. 성능 병목이 발생하면 CPU에 *바인딩(Binding)되어 있는지 명확하게 알 수 있습니다. 인프라를 정확하게 조정할 수도 있게 되죠. *바인딩(Binding): 두 프로그래밍 언어를 이어주는 래퍼 라이브러리 · 오버헤드 감소: 병렬 처리와 오버헤드 사이의 균형은 미묘합니다. 파티션 증가는 병렬 처리를 촉진할 수 있습니다. 하지만 더 많은 주키퍼 부하, 브로커 시작 시간 연장, 리더 선거 빈도 증가와 같은 오버헤드도 가져올 수도 있습니다. 파티션을 CPU 코어에 맞추는 것은 균형을 이룰 수 있게 합니다. 다음은 프로세스 수를 CPU 코어 수만큼 생성하여, 토픽의 파티션 개수와 일치시킨 코드에 대한 장점입니다. 파티션 수와 컨슈머 프로세스 수 일치의 장점 · 최적의 병렬 처리: 카프카 파티션의 각각은 동시에 처리될 수 있습니다. 컨슈머 수가 파티션 수와 일치하면, 각 컨슈머는 특정 파티션에서 메시지를 독립적으로 소비할 수 있게 되죠. 따라서 병렬 처리가 향상됩니다. · 리소스 효율성: 파티션 수와 컨슈머 수가 일치하면, 각 컨슈머가 처리하는 데이터의 양이 균등하게 분배됩니다. 이로 인해 전체 시스템의 리소스 사용이 균형을 이루게 되죠. · 탄력성과 확장성: 트래픽이 증가하면, 추가적인 컨슈머를 컨슈머 그룹에 추가하여 처리 능력을 증가시킵니다. 동일한 방식으로 트래픽이 감소하면 컨슈머를 줄여 리소스를 절약할 수 있습니다. · 고가용성과 오류 회복: 컨슈머 중 하나가 실패하면, 해당 컨슈머가 처리하던 파티션은 다른 컨슈머에게 자동 재분배됩니다. 이를 통해 시스템 내의 다른 컨슈머가 실패한 컨슈머의 작업을 빠르게 인수하여, 메시지 처리가 중단되지 않습니다. 마지막으로 각 프로세스별 컨슈머를 생성해서 토픽에 구독 후, 소비하는 과정을 나타낸 소스코드입니다. ∴ 컨슈머 그룹 요약 컨슈머 그룹은 높은 처리량과 장애 허용성 있는 메시지 소비를 제공하는 능력이 핵심입니다. 카프카가 어떤 식으로 운영되는지에 대한 상세한 부분을 이해하고 다양한 매개변수를 신중하게 조정한다면, 어떠한 상황에서도 카프카의 최대 성능을 이끌어낼 수 있습니다! ------------------------------------------------------------ ©참고 자료 · Jay Kreps, “I Hearts Logs”, Confluent · 위키피디아, “Logging(computing)” · Confluent, “https://docs.confluent.io/kafka/overview.html” · Neha Narkhede, Gwen Shapira, Todd Palino, “Kafka: The Definitive Guide” ------------------------------------------------------------
2023.09.19
기술이야기
[브레인저가 알려주는 IT#1] 네트워크 관리, SNMP가 뭔가요?
기술이야기
[브레인저가 알려주는 IT#1] 네트워크 관리, SNMP가 뭔가요?
1. SNMP(Simple Network Management Protocol)란? 컴퓨터 네트워크 장치를 관리하고 모니터링하기 위해 사용되는 네트워크 관리 프로토콜이에요. 네트워크 장치, 서버, 라우터, 스위치, 프린터 등과 같은 네트워크 장치들의 상태를 모니터링하고 구성할 수 있는 표준 방법 또한 제공하고 있어요. 요약한다면 네트워크에 있는 장비들을 관리하기 위한 프로토콜이라고 이해하시면 된답니다! (1) SNMP의 역사 • SNMPv1(1988)초기 SNMP 버전으로 RFC 1067에 정의되었어요. 간단한 모니터링과 설정 변경 기능을 제공했으나, 보안 측면에서 취약점이 있었어요. 커뮤니티 문자열(Community String)을 사용하여 인증을 수행했어요. • SNMPv2(1993) SNMPv1의 한계와 보안 이슈를 개선하기 위해 개발되었어요. 여러 개의 추가 기능을 제공하려 했으나, 규격이 복잡해졌고 보안 문제로 인해 널리 채택되지 않았어요. • SNMPv2c(1996) SNMPv2의 복잡성을 줄이고 보안을 개선한 버전이에요. 커뮤니티 문자열을 계속 사용하여 보안적인 취약성은 여전히 존재했어요. • SNMPv3(1998) 현재까지 널리 사용되고 있는 최신 버전이에요. 보안 기능을 크게 강화하여 데이터 암호화, 사용자 인증, 데이터 무결성 검사 등을 제공하고 있어요. 비동기적인 알림 메커니즘으로 Trap 메시지와 함께 메시지의 암호화 및 보안 기능을 지원해요. • SNMPv3의 보안 개선(2002 이후~) SNMPv3에서 시작된 보안 향상이 계속 발전되어 왔어요. 데이터 암호화와 사용자 인증 등의 기능이 더욱 강화되고, 다양한 보안 솔루션과 표준이 제안되었어요. 2. SNMP의 주요 특징과 역할 (1) 클라이언트-서버 모델 SNMP는 관리자의 명령을 수행하는 에이전트와, 에이전트의 정보를 수집하는 매니저 간의 통신을 기반으로 해요. (2) MIB(Management Information Base) 네트워크 장치의 정보를 계층 구조로 정의한 데이터베이스입니다. 각 정보 항목은 OID(Object Identifier)로 식별되며, 매니저는 OID를 통해 특정 정보를 요청하고 수집할 수 있어요. (3) 동작 방식 • GET: 매니저가 에이전트에게 특정 정보의 값을 요청해요. • SET: 매니저가 에이전트에게 특정 정보의 값을 변경하도록 요청합니다. • TRAP: 에이전트가 이벤트 발생 시 매니저에게 알림을 보내요. (4) 보안 • SNMPv1: 초기 버전으로, 보안에 취약한 프로토콜이었어요. • SNMPv2c: SNMPv1을 확장한 버전으로, 여전히 보안에 취약했어요. • SNMPv3: 보안 강화 버전으로 데이터 암호화, 사용자 인증, 데이터 무결성 검사 등을 지원하여 보안을 강화했어요. (5) 확장 가능성 SNMP는 다양한 버전과 확장 프로토콜을 지원하여 새로운 기능을 추가하거나 보완할 수 있어요. (6) 주요 용도 • 네트워크 장치 모니터링: 장비의 성능, 상태, 트래픽 등 정보를 수집하여 네트워크를 모니터링해요. • 구성 관리: 장치의 설정 변경 및 관리를 원격으로 수행할 수 있어요. • 이벤트 알림: 장애나 이상 상태가 발생하면 즉시 알림을 받을 수 있어요. 이처럼 SNMP는 네트워크 관리에 필수적인 프로토콜 중 하나로, 네트워크의 안정성과 성능을 유지하며 문제를 신속하게 해결하는 데 도움을 준답니다! 3. Zenius에서의 SNMP 활용 안내 (1) NMS 모니터링 SNMP GET 방식으로 데이터를 수집할 수 있어요. SNMP를 활용하여 장비모니터링 화면, 등록된 장비의 장비명, IP, 성능데이터 등을 확인 할 수 있어요. 장비의 상세한 데이터를 모니터링 할 수 있어요. IF 포트의 UP/DOWN과 트래픽 데이터를 수집하여 확인 가능해요. • NMS in/out bps 전일 대비 In/Out bps의 데이터 확인 및 추이 분석기능도 제공하고 있어요. 사진과 같이 초 단위 실시간 데이터를 통한 상세 트랙픽 분석도 가능하답니다! 성능 데이터를 수집하여 그래프 형태로 보관하고 제공하고 있어요. 수집 시간대별 데이터도 제공해요. 해당 데이터를 통하여, 트래픽사용량이 많이 발생한 시간을 찾을수 있어요. • 장비등록 화면 SNMP 모든 버전에 대해서 모니터링을 제공하고 있어요. 장비 설정에 따라서, 버전 및 정보 입력하여 등록하여 모니터링 할 수 있어요. (2) TRAP 모니터링 • 네트워크 장비와 시스템에서 발생하는 이벤트나 상태 변화를 실시간으로 알려주기 위한 SNMP의 비동기적인 메시지에요. 이벤트 발생 시, 장치가 주도적으로 SNMP 매니저에게 알림을 보내는 방식으로 작동해요. Trap은 장애 상황이나 경고 상태 등에 대한 신속한 대응을 가능하게 해요. • Trap은 네트워크 관리자에게 실시간 정보를 제공해요. 장비나 시스템의 이상 상태를 빠르게 감지하고 대응하여, 서비스의 가용성과 신뢰성을 유지하는 데 중요한 역할을 하고 있죠. • Trap의 활용✅ 장애 관리: 장비나 시스템의 고장이나 다운 상태 등의 이벤트가 발생하면 즉시 Trap이 생성되어 매니저에게 알려줘요.✅ 경고 및 알림: 주의가 필요한 상황에서도 Trap을 활용하여 관리자에게 알림을 제공해요.✅ 보안 이벤트: 불법 로그인 시도나 보안 위반 등의 이벤트가 발생하면, 해당 정보를 Trap으로 매니저에게 전송하여 보안 조치를 취할 수 있어요. Trap 발생시, 모니터링 화면을 통해서 내용을 확인 할 수 있어요. Trap 받은 내역을 저장하여, 기간 검색 등을 통하여 활용할 수 있어요. 이제 Zenius를 활용하여 네트워크 장비를 모니터링 해보는 것은 어떨까요?
2023.09.05
회사이야기
[브레인즈 소식] 브레인즈컴퍼니, ‘REST API 클라이언트 개발을 위한 가상 REST API 서비스 자동 생성 서버 및 방법’ 특허 취득
회사이야기
[브레인즈 소식] 브레인즈컴퍼니, ‘REST API 클라이언트 개발을 위한 가상 REST API 서비스 자동 생성 서버 및 방법’ 특허 취득
지난 6월에는 브레인즈컴퍼니가 '원격 서비스 응답 블로킹 대기 상태의 트랜잭션 제어 시스템 및 방법' 특허를 획득한 사실을 알려드렸습니다. 이번 7월 31일 'REST API 클라이언트 개발을 위한 가상 REST API 서비스 자동 생성 서버 및 방법' 특허도 취득했어요. 이번에 출원한 특허의 핵심은 AWS나 GCP와 같은 클라우드 서비스를 활용하는 개발 과정에서 가상 REST API 서비스를 자동으로 생성하는 소스 자동 제너레이션 기술입니다. 클라우드 환경을 이용한 개발 과정에서는 주로 REST API(Application Program Interface)를 주로 사용하는데, 이는 웹의 컴퓨터 시스템 간에 표준을 제공하여 시스템이 서로 쉽게 통신할 수 있도록 하는 아키텍처의 하나로, 현재는 공기업 및 사기업의 대부분이 API 서비스를 제공하고 있어, 웹 서비스의 표준 기술로 자리 잡고 있습니다. 클라이언트 개발자들은 개발 단계에서 REST API 서비스를 통해 데이터를 수시로 요청하고 테스트하는 과정을 필수적으로 거치게 되는데, 이 과정에서 서버 개발자들은 각 API에 대한 소스 파일을 일일이 작성하고 추가하는 등의 업무가 가중되고 있습니다. 브레인즈컴퍼니는 이러한 과정에서 특허 기술인 소스 자동 생성 기능을 적용하여, 개발 환경을 개선시키는 데 중점을 두었습니다. 소스 코드의 작성·빌드·배포 과정에서 반복되는 단순 작업들을 절감시키고, API를 이용하는 데 소요되는 비용을 최소화하여 결과적으로는 개발 경쟁력을 확보할 수 있기 때문입니다. 이번에 취득한 특허 기술은 클라우드 서비스 모니터링 시스템인 Zenius-CMS 개발 과정에서 이미 적용되어 성공적으로 검증되었습니다. 이번 특허 기술을 통해 클라우드 환경에서의 개발 속도를 높일 수 있었고, 브레인즈 개발자들은 더욱 효율적이게 업무에 몰두할 수 있는 환경이 마련된 상태입니다. 또한, 향후 REST API를 활용하는 프로젝트가 있을 때에도 신속하고 쉽게 개발이 이루어지고 효율적인 개발과 비용 부담 없는 테스트 과정을 거쳐 기능의 안정성을 확보할 것으로 전망하고 있습니다. 그리고 궁극적으로는 신규 기능을 빠르고 안정적으로 배포하여 고객 만족도가 향상될 것으로 기대하고 있습니다.
2023.08.28
기술이야기
[Zenius Case#2] 서버관리, 서버가 왜 이렇게 느리지?
기술이야기
[Zenius Case#2] 서버관리, 서버가 왜 이렇게 느리지?
평온한 오후 퇴근 준비가 한창인데 불길한 전화가 걸려 옵니다. “서비스가 먹통이어서 확인 좀 해야 하는데 서버가 엄청 버벅거리고 반응이 느려요!! 이거 왜 이러죠??” 왜!! 도대체 왜!! 한 번쯤은 겪어보았을 급작스러운 Linux 서버의 상태 이슈! 불행하게도 무척이나 다양한 원인으로 인해 발생하게 됩니다. 우리의 목표는 이 다양한 원인 중 실제 발생 원인을 빠르게 특정하는 것! 기본적인 항목들의 체크리스트를 통해 빠르게 원인을 파악 해 봅시다. Linux 서버 상태 이슈 체크리스트 1. 서버의 CPU 부하 확인하기 2. BUFFER, CACHE, SWAP 상태 확인하기 3. 디스크 상태 확인하기 Zenius를 통한 데이터 추이 분석!! 장애의 발생은 순식간에 일어나지만, 장애 발생 시점의 데이터만을 확인해서는 원인을 파악하기가 쉽지 않은 경우가 많습니다. Zenius를 활용하여 앞서 정한 체크리스트를 빠르게 확인해 봅시다. 1. 서버의 CPU 부하 확인하기 - CPU 부하 확인의 Point는 Load Average Load Average는 CPU 사용 대기 중인 프로세스와 I/O 완료를 대기하고 있는 프로세스의 수를 의미합니다. 따라서, Load Average가 높다는 것은 CPU가 바쁘며 시스템에 걸리는 부하가 있다는 뜻입니다. 화면과 같이 1분, 5분, 15분의 로드 평균을 확인 해 보도록 합시다. 1분 로드 평균은 순간적으로 증가하는 경우가 있지만, 5분 15분 데이터상에도 이전과 비교하였을 때 높은 수치를 보인다면, CPU의 부하가 의심스러운 상황입니다. 그렇다면 CPU의 사용률과 I/O 대기율은 어떨까요? user가 사용한 CPU 사용률은 일정하지만, Iowait 수치가 올라간 것을 볼 수 있습니다. 이 경우 CPU의 리소스 부족이기보다는 I/O로 인한 부하로 판단할 수 있고, 자세히는 메모리나 프로세스의 현황 확인이 필요한 경우입니다. 반대로 user 수치가 높은 경우에는 물리적인 CPU 자체의 리소스 부족이라 볼 수 있습니다. 2. BUFFER, CACHE, SWAP 상태 확인하기 - 메모리 사용률과 Swap, Buffer, Cache 메모리 사용률이 높다 = 서버에 부하가 있다?? 답은 No !! Linux 서버의 메모리 사용률은 Buffer/Cache의 사용량이 포함되어 표현되게 됩니다. 따라서, 우리는 그 추이를 통하여 이슈를 확인하는 것이 중요합니다. 위의 검은 바탕의 그래프는 메모리 사용률이 높지만, 일정한 수치를 유지하고 있습니다. 이런 경우 서버의 메모리 사용은 안정적인 영역에서 이루어진다고 판단이 가능합니다. 그 이유는 실제 메모리 사용량과 Buffer/Cache에 할당량의 수치가 할당 가능한 수치 내에서 이루어지기 때문에 사용률이 유지된다고 볼 수 있기 때문입니다. 반면 흰 바탕의 그래프는 메모리 사용률이 점차 증가하며 결국 100%까지 도달한 것을 확인할 수 있는데요, 이경우에는 프로세스가 연산에 필요한 공간을 할당받지 못하여 프로세스 행이 발생하게 됩니다. 그렇다면 Buffer Cache Swap은 어떨까요? 먼저 Buffer Cache에 관해 확인 해 보도록 하겠습니다. *Buffer – 메타데이터를 메모리에 저장. *Cache – Page Cache, Slab을 메모리에 저장. 쉽게 말해, 둘 다 용도에 맞는 정보를 저장하여 수행 속도에 도움을 주는 영역입니다. 메모리 사용량이 늘어나면 이 Buffer, Cache 영역이 줄어들게 되고, 저장 영역이 줄어든다는 것은 속도가 떨어져 성능 저하로 이어지게 됩니다. 아래 그래프는 메모리 사용률이 올라가고 있는 상태의 서버 데이터입니다. 다음으로 이 시점의 Buffer, Cache의 영역을 확인해 보겠습니다. 추이 그래프를 통해 메모리 사용률이 올라갈수록 Buffer, Cache 영역이 줄어드는 것을 확인할 수 있습니다. 그렇다면 이 시점의 I/O는 어떨까요? 보시는 바와 같이 Iowait 수치가 급격히 올라갔음을 확인 할 수 있으므로, “메모리 사용률의 상승은 Buffer, Cache 영역을 줄어들게 하여 속도 저하를 발생시킨다.” 라는 결론을 도출할 수 있습니다. 또한, 메모리 사용률의 상승은 Swap에도 영향을 끼치게 됩니다. *Swap – 디스크 공간에 할당하여 메모리 역할로 사용하는 공간. 따라서, Swap 영역의 사용은 실제 메모리가 아닌 디스크를 사용하기 때문에 속도 저하가 발생 됩니다. 위 그래프는 Swap 사용률이 증가하고 있는 서버의 데이터입니다. 이 시점의 디스크의 상태를 보면 Read와 Write가 점차 Swap과 동일하게 상승하는 것을 볼 수 있습니다. 이렇게 메모리 대신 디스크 영역을 사용하면서 속도가 저하하게 되는 것입니다. 3. 디스크, 확인하기 - Mount Point 별 디스크 사용량, 작업량 추이 확인 디스크의 여유 공간이 없으면 시스템이 파일 생성을 못 하게 되고 결국엔 서버의 운영에 영향을 끼치게 됩니다. 각각의 마운트 지점의 사용률을 체크하여 여유 공간을 확보하는 것이 필요합니다. 디스크의 사용량이 급작스럽게 늘어난 경우는 신규 파일이 업로드되었다거나, 로그파일이 급작스럽게 많이 쌓이는 경우가 있습니다. 그렇기에 각 Mount Point의 사용률을 확인하고 해당 지점의 이슈 사항을 파악하는 것이 가장 좋습니다. 위 그래프와 같이 1시간 이내에 /data 지점의 사용률이 급등하였다면, 해당 지점에 쌓이는 데이터나 로그파일이 급격하게 증가한 것이므로 확인이 필요합니다. 다음으로는 디스크 사용 추이를 확인 해 보도록 하겠습니다. 서버에서 사용하는 물리 디스크는 각각의 성능의 한계가 있습니다. 이 한계를 직관적으로 확인할 수 있는 데이터로는 Disk Busy Rate(작업률)와 Disk Wait Rate(대기율)이 있는데요, Read 및 Write의 양이 한계치까지 치솟게 된다면 Busy Rate 값이 증가하게 되고, 이에 따른 Wait Rate 가 늘어나면서 서버의 성능 저하를 불러오게 됩니다. 어떻게 관리해야 할까? 앞서 확인한 서버의 상태 이슈들, 물론 급작스럽게 발생하는 경우는 어쩔 수 없지만 미리 대비가 가능한 것들은 Zenius-EMS를 이용하여 임계치 기반의 사전 모니터링과, 모니터링 페이지를 통한 직관적인 관리가 가능합니다. 각각의 항목들에 세부적으로 단계별 임계치를 걸어서 서버의 상태 이슈를 사전에 인지하고, 요약 페이지를 통해 빠르게 상태를 파악하여 우리의 퇴근 시간을 사수해 보는 건 어떨까요?
2023.08.08
1
2
3
4
5