반복영역 건너뛰기
주메뉴 바로가기
본문 바로가기
제품/서비스
EMS Solution
Features
클라우드 관리
AI 인공지능
서버관리
데이터베이스 관리
네트워크 관리
트래픽 관리
설비 IoT 관리
무선 AP 관리
교환기 관리
운영자동화
실시간 관리
백업 관리
APM Solution
애플리케이션 관리
URL 관리
ITSM Solution
서비스데스크
IT 서비스 관리
Big Data Solution
SIEM
Dashboard
대시보드
Consulting Service
컨설팅 서비스
고객
레퍼런스
고객FAQ
문의하기
가격
자료실
카탈로그
사용자매뉴얼
회사소개
비전·미션
연혁
2016~현재
2000~2015
인증서·수상
투자정보
재무정보
전자공고
IR자료
새소식
공고
보도자료
오시는 길
채용
피플
컬처
공고
FAQ
블로그
열기
메인 페이지로 이동
블로그
기술이야기
블로그
최신이야기
사람이야기
회사이야기
기술이야기
다양한이야기
기술이야기
검색
기술이야기
효과적인 쿠버네티스 모니터링을 위한 6가지 고려사항
기술이야기
효과적인 쿠버네티스 모니터링을 위한 6가지 고려사항
컨테이너 오케스트레이션 플랫폼인 쿠버네티스(Kubernetes, K8s)는 자동화된 확장성과 자가 복구 기능을 통해 서비스의 안정성과 운영 효율성을 높이는 장점이 있습니다. 따라서 다양한 마이크로서비스 아키텍처(MSA)와 클라우드 환경에서 널리 활용되고 있습니다. 그러나 쿠버네티스는 파드(Pod), 노드(Node), 네트워크 등 각 요소가 끊임없이 동적으로 변화하며 상호작용하는 복잡한 구조이기 때문에, 체계적이고 세밀한 모니터링 없이는 운영에 어려움을 겪을 수 있습니다. 그렇다면 효과적인 쿠버네티스 모니터링을 위한 필수 고려사항은 무엇인지 6가지로 나눠서 알아보겠습니다. [1] 파드 및 컨테이너 모니터링 파드(Pod)와 컨테이너는 쿠버네티스에서 애플리케이션이 실행되는 가장 기본적인 단위이자 핵심 구성 요소입니다. 따라서 애플리케이션의 가용성과 성능을 안정적으로 유지하기 위해서는 각 파드와 컨테이너의 상태를 정밀하게 모니터링 하는 것이 중요합니다. 파드가 제대로 스케줄링되지 않거나, 컨테이너가 크래시 루프(CrashLoopBackOff) 상태에 빠지면 애플리케이션 성능이 저하되거나 서비스가 중단될 수 있습니다. 이러한 문제를 사전에 방지하려면 각 파드의 CPU, 메모리 사용량, 네트워크 I/O와 같은 자원 사용 현황을 실시간으로 모니터링하는 체계가 필요합니다. 특히, 자원 사용량을 지속적으로 추적하여 비정상적인 사용 패턴이나 과부하 상태를 사전에 감지하는 것이 중요합니다. 또한, 쿠버네티스의 오토스케일링(Auto-Scaling) 기능과 연계된 모니터링 솔루션을 통해 파드가 실시간 트래픽 변화에 맞춰 자동으로 확장 또는 축소될 수 있도록 설정하는 것이 자원 효율성 측면에서도 유리합니다. 이와 같은 종합적인 모니터링 솔루션은 파드와 컨테이너의 상태 변화에 대한 정확한 정보를 제공하고, 문제가 발생하기 전에 이를 사전에 탐지하고 대응할 수 있는 능력을 제공합니다. [2] 클러스터와 노드 상태 모니터링 쿠버네티스 클러스터는 다수의 노드로 구성된 분산 시스템으로, 각 노드는 파드(Pod)를 실행하는 주체로서 클러스터 전반의 성능과 안정성에 중요한 영향을 미칩니다. 각 노드의 CPU, 메모리, 디스크 I/O, 네트워크 대역폭 등 주요 리소스 사용량을 실시간으로 모니터링함으로써 리소스 과부하나 잠재적 장애를 사전에 감지하고 예방할 수 있습니다. 특히, 노드 간 리소스 사용의 불균형은 클러스터 전체 성능에 부정적인 영향을 미칠 수 있으며, 특정 노드에서 발생하는 비정상적인 리소스 소모는 장애의 전조로 볼 수 있습니다. 예를 들어, CPU나 메모리 자원의 지속적인 고갈, 네트워크 트래픽의 급격한 증가 등은 장애를 유발할 수 있는 주요 지표로, 이를 사전에 감지하고 신속하게 대응하는 것이 중요합니다. 이를 위해 각 노드의 메트릭 데이터를 분석하고, 비정상적인 패턴을 자동으로 탐지할 수 있는 쿠버네티스 모니터링 솔루션을 도입하는 것이 필요합니다. 이러한 솔루션은 클러스터 내 모든 노드의 상태를 실시간으로 모니터링하고, 비정상적인 리소스 사용을 빠르게 인식할 수 있게 해줍니다. 또한, 자동화된 경고 시스템을 통해 잠재적인 문제가 발생하기 전에 관리자에게 즉시 알림을 제공하며, 리소스 사용 추세를 기반으로 한 예측 분석 기능을 통해 향후 발생할 수 있는 문제를 미리 방지할 수 있도록 지원합니다. [3] 네트워크 모니터링 쿠버네티스는 내부 네트워크와 외부 네트워크 간 통신이 빈번하게 이루어지는 복잡한 분산 시스템입니다. 파드 간의 통신 오류나 클러스터 외부와의 연결 문제는 애플리케이션 성능 저하로 이어질 수 있기에, 네트워크 상태를 정밀하게 모니터링해야 합니다. 주요 모니터링 지표로는 네트워크 지연(latency), 패킷 손실(packet loss), 네트워크 인터페이스 속도와 대역폭 등이 있으며, 이러한 지표들은 애플리케이션 가용성과 성능에 직접적인 영향을 미칠 수 있습니다. 특히 서비스 메시(Service Mesh)와 같은 고급 네트워크 구성 요소를 도입한 환경에서는 네트워크 복잡성이 더욱 증가하므로, 네트워크 트래픽 경로를 시각화하고 트래픽 흐름을 분석할 수 있는 고도화된 모니터링 솔루션이 필요합니다. 이러한 시스템을 통해 비정상적인 트래픽 패턴이나 병목 현상을 사전에 감지하고, 네트워크 문제를 신속하게 해결할 수 있는 역량을 확보하는 것이 중요합니다. 특히, 네트워크 모니터링은 전체 클러스터의 안정성과 애플리케이션 성능을 보장하는 데 중요한 역할을 합니다. [4] 로그 및 메트릭 수집과 분석 모니터링의 핵심은 적절한 로그와 메트릭 데이터를 수집하고 이를 분석하여 시스템 상태를 지속적으로 파악하는 데 있습니다. 쿠버네티스는 클러스터 내에서 발생하는 다양한 이벤트를 로그로 기록하고, 각 파드, 컨테이너, 노드에서 발생하는 자원 사용량과 성능 관련 데이터를 메트릭으로 제공합니다. 이러한 로그와 메트릭을 실시간으로 수집하고 분석함으로써, 문제가 발생했을 때 그 원인을 빠르게 파악하고 대응할 수 있습니다. 예를 들어, 특정 파드에서 반복적으로 발생하는 에러 로그는 애플리케이션의 특정 기능이 문제가 있음을 시사하며, 이를 통해 운영자는 그 원인을 정확히 파악할 수 있습니다. 또한, 성능 저하가 발생할 때 메트릭 데이터를 분석하여 CPU, 메모리, 네트워크 등 리소스 부족이 원인인지 식별할 수 있습니다. 이러한 정보가 실시간으로 제공되기 때문에, 운영자는 문제를 조기에 발견하고 빠르게 대응할 수 있으며, 그 결과 시스템 장애나 성능 저하를 미연에 방지할 수 있습니다. 또한, 실시간으로 로그와 메트릭 변화를 추적하고 모니터링 솔루션의 경고 알림 기능 등을 활용하면, 문제를 사전에 예측하고 조치를 취할 수 있습니다. [5] 자동화 기능과의 긴밀한 연동 쿠버네티스의 주요 기능 중 하나는 자동화된 확장과 자가 치유(Self-Healing) 기능으로, 이를 통해 클러스터의 안정성과 가용성을 유지할 수 있습니다. 자동화된 확장은 클러스터 상태를 실시간으로 모니터링하여 자원이 부족할 때 자동으로 새로운 파드를 생성하고, 부하를 분산함으로써 성능 저하를 방지합니다. 또한 자가 치유 기능은 장애가 발생한 파드나 노드를 감지하여, 파드를 자동으로 재시작하거나 장애가 발생한 파드들을 다른 건강한 노드로 이동시키는 역할을 합니다. 이러한 기능이 원활하게 작동하려면, 모니터링 솔루션이 클러스터의 상태를 정확하게 파악하고, 자원 사용 현황 및 노드 상태에 대한 신뢰할 수 있는 데이터를 제공해야 합니다. 이를 위해 모니터링 솔루션은 높은 확장성과 안정성을 보장할 수 있는 설정이 필수적입니다. 예를 들어, 파드의 자원 부족이 발생하면 이를 실시간으로 감지하여 적절한 확장 작업이 즉시 이루어질 수 있도록 지원해야 합니다. 결과적으로, 쿠버네티스의 자동화 기능이 성공적으로 활용되려면 쿠버네티스 모니터링 솔루션과의 긴밀한 연동이 반드시 필요합니다. [6] 보안 및 규정 준수 분산 아키텍처를 기반으로 하는 쿠버네티스 클러스터는 외부 공격에 더욱 취약할 수 있으며, 다양한 보안 위협에 노출될 가능성이 존재합니다. 이러한 위협을 효과적으로 방어하기 위해서는 네트워크 트래픽 모니터링을 통해 비정상적인 활동이나 의심스러운 트래픽 패턴을 신속히 감지하고, 보안 정책 위반, 의도치 않은 구성 변경, 혹은 취약점 발견 시 자동으로 경고를 발송하는 보안 모니터링 체계가 필요합니다. 이와 함께, 컨테이너 이미지의 보안 취약점 분석을 사전에 실시하여 악성 코드나 알려진 취약점으로부터 클러스터를 보호하고, 이를 기반으로 하는 보안 스캔 자동화가 중요합니다. 또한, 클러스터 전반에서 발생하는 모든 활동을 실시간으로 감사(Audit) 및 기록하여 컴플라이언스 요구사항을 충족시키는 중앙 집중형 로그 관리 시스템이 필요합니다. 이러한 감사 로그는 규정 준수를 위한 기본적인 요소일 뿐만 아니라, 보안 사고 발생 시 원인 분석 및 대응을 위한 핵심 자료로 활용될 수 있습니다. 쿠버네티스와 같은 분산 시스템을 성공적으로 운영하기 위해서는 그 안에서 발생하는 다양한 이벤트를 실시간으로 모니터링하는 것이 매우 중요합니다. 6가지 고려사항을 통해 클러스터의 상태를 세밀하게 추적하고 분석함으로써, 예상치 못한 문제를 미리 발견하고 대비할 수 있습니다. 특히, 노드나 파드의 자원 소모가 비정상적으로 급증할 때 이를 빠르게 인식하고 조치를 취함으로써, 시스템의 성능 저하를 방지할 수 있습니다. 또한, 네트워크 상태와 보안 위협에 대한 철저한 모니터링은 전체 서비스의 가용성을 높이는 데 큰 도움이 됩니다. 이처럼 체계적인 모니터링 전략을 통해 쿠버네티스 환경에서의 안정성을 확보할 수 있으며, 서비스 중단 없이 원활한 운영을 이어갈 수 있습니다.
2024.10.24
기술이야기
데브옵스(DevOps)에 대한 오해, 그리고 진실은?!
기술이야기
데브옵스(DevOps)에 대한 오해, 그리고 진실은?!
2000년 대 후반 IT 분야에서 데브옵스(DevOps)라는 움직임이 시작된 후, 꾸준하게 관심이 이어지고 있습니다. 데브옵스와 관련된 전 세계 시장의 규모는 2023년 기준 약 15조 원으로 추산되며, 올해부터는 연평균 25.5%씩 성장하여 2032년에 118조 원에 이를 것으로 예상됩니다(*출처: Grand View Research). 우리나라의 경우 네이버, 카카오, 우아한 형제들, 토스 등과 같은 국내 대기업부터 스타트업까지 데브옵스 팀을 구축하여 적극적으로 활용하고 있기도 한데요. 이처럼 많은 기업들이 말하는 데브옵스란 과연 무엇일까요? 그리고 어떻게 하면 데브옵스를 성공적으로 도입하고 활용할 수 있을까요? │ 데브옵스(DevOps)란 무엇인가? [그림 1] DevOps 개념 ⓒdevopedia 우선 데브옵스가 무엇인지부터 살펴봅시다. 검색 사이트에서 '데브옵스 혹은 DevOps'라고 검색하면 위 [그림1]과 같은 결과를 찾을 수 있는데요. [그림 2] DevOps에 대한 필자의 첫인상 하지만 처음 데브옵스라는 단어를 접할 경우 [그림 2]처럼 오버랩되는 건, 필자만 그런 것은 아니라고 생각합니다. 위 그림처럼 "개발자 보러 운영까지 하라는 거야? 아니면 운영자에게 개발까지 하라는 거야?"라는 질문을 던질 수 있겠죠. 데브옵스(DevOps)는 소프트웨어의 개발(Developmnet)과 + 운영(Operations)의 합성어이다. 이는 소프트웨어 개발자와 정보기술 전문가 간의 소통, 협업 및 통합을 강조하는 개발 환경이나 문화를 말한다. 데브옵스는 소프트웨어 개발조직과 운영조직 간의 상호 의존적 대응이며, 조직이 소프트웨어 제품과 서비스를 빠른 시간에 개발 및 배포하는 것을 목적으로 한다. ⓒ위키백과 위 내용에도 언급되었듯이, 데브옵스라는 것은 결국 단순한 기술이 아닌 환경 또는 사람들 간에 관계라고 할 수 있습니다. 그렇다면 데브옵스는 어떤 이유로 주목받을 수 있었을까요? │ 데브옵스(DevOps)가 주목받게 된 배경은? 데브옵스가 주목받은 이유는 여러 가지 있을 수 있지만, 주요한 이유 중 몇 가지를 설명하면 다음과 같습니다. 클라우드 컴퓨팅 기술의 발전 IT 산업의 발전에 따라 빠른 개발과 빠른 배포, 그리고 고객의 요구에 신속하게 대응하는 능력이 중요해졌습니다. 특히 클라우드 컴퓨팅(Cloud Computing) 기술의 발전으로 데브옵스의 필요성이 더 대두되었는데요. 클라우드 자원의 가상화 기술과 빠른 프로비저닝*1을 통해 기존의 개발과 운영 간의 경계가 허물어지며, 서로 간의 협력이 필수적으로 요구되었기 때문입니다. 실제로 데브옵스만으로는 52%, 클라우드 단독 사용으로는 53%의 성능 향상을 얻었지만, 데브옵스와 클라우드가 결합된 환경에서는 평균 81%의 성능을 향상시킬 수 있다는 조사 결과도 있습니다. *1 프로비저닝(Provisioning): 사용자가 요청한 IT 자원을 사용할 수 있는 상태로 준비하는 것 MSA의 등장 [그림 4] 모놀리식 구조 예시(왼) [그림 5] MSA 구조 예시(오) 지금까지 운영 중인 시스템 혹은 서비스는, 하나의 큰 덩어리로 구성된 [그림 4] 모놀리식(Monolithic) 구조를 많이 사용하고 있습니다. 안정성을 확보하고 기능 추가를 편리하게 할 수 있었기 때문이죠. 하지만 한 부분의 변경이 전체 시스템에 영향을 미칠 수 있어, 유지보수가 어렵다는 한계점이 있습니다. 예를 든다면 특정 기능이 수정이 필요한 경우에도, 전체 시스템을 수정해야 해서 번거롭고 비효율적인 부분이 있습니다. 이러한 모놀리식 구조의 한계점으로 소프트웨어의 구조가 서서히 [그림 5] MSA(Micro Service Architecture)로 변화되고 있습니다. MSA는 통합된 하나의 덩어리를 관리하는 것이 아닌, 작은 단위로 쪼개어 관리하는 방식인데요. 관리하기도 효율적이고, 소프트웨어 품질개선과 요구사항 반영이 비교적 편리해졌습니다. 각 서비스가 독립적으로 배포되고 운영되기 때문에, 특정 기능을 수정할 때 전체 기능을 수정하거나 다시 배포할 필요가 없어진 거죠. 하지만 이러한 변화는 기존의 개발 환경과 조직 문화로 대응하기엔 어려움이 있었습니다. 이때 '데브옵스(DevOps)'가 좋은 솔루션으로 등장한 것이죠! 데브옵스가 지속적인 통합(CI)1과 지속적인 배포(CD)2를 통해 빠른 개발 주기를 실현하고 배포할 수 있을 뿐만 아니라, 다수의 독립적인 서비스가 상호작용할 수 있도록 원활한 협업과 통합을 가능하게 했기 때문입니다. *1 지속적인 통합(Continuous Integration, CI) 개발자가 코드를 변경할 때마다 자동으로 통합하고 빌드 하여, 소프트웨어의 품질을 빠르게 확인하는 과정 *2 지속적인 배포(Continuous Delivery, CD) 통합된 코드를 자동으로 테스트하고, 안정적으로 통과한 경우에는 자동으로 프로덕션 환경에 소프트웨어를 배포하는 것. 이에 따라 사용자에게 새로운 기능이나 수정 사항을 신속히 제공하는 과정 │ 데브옵스(DevOps) 도입 성공사례는? 이처럼 데브옵스의 정의와 주목받게 된 배경을 살펴봤는데요. 이번에는 데브옵스를 실제로 기업에 적용해 보고 성공한 사례를 자세히 살펴볼까요? 넷플릭스 넷플릭스(Netflix)는 데브옵스를 성공의 핵심요소로 삼아, 지속적으로 새로운 기능과 업데이트를 제공했습니다. 자동화된 유연한 인프라로 사용자 경험을 향상시켰죠. 이를 통해 빠르게 변화하는 스트리밍 산업에서 앞서 나갈 수 있게 되었고, 많은 비즈니스 이점을 얻게 되었습니다. 사실 넷플릭스는 2008년 큰 장애를 겪은 후, 클라우드로 이전되면서 인프라를 혁신적으로 개편했습니다. 이로써 기존의 수직적 단일 장애 지점에서 벗어나, 수평적으로 확장 가능한 분산 시스템을 구축할 수 있었습니다. 아마존 아마존(Amazon)은 데브옵스 원칙을 초기에 채택하여, 개발과 운영팀 간의 협력을 강화했습니다. 자동화와 지속적인 통합을 강조함에 따라, 빠른 배포 주기와 개선된 확장성을 달성할 수 있었죠. 이러한 아마존의 데브옵스 접근 방식은, 시장에서 경쟁 우위를 유지하는데 중요한 역할을 했습니다. 아마존 창립자인 제프 베이조스는 아마존의 데브옵스에 대해 '고객에게 집중하고, 혁신을 포용하며, 실험할 용기'를 강조했습니다. 베이조스는 혁신을 위해, 오해를 받고 비판받을 의향이 있어야 한다고 말했던 것이죠. 페이스북 페이스북(Facebook)은 "빠르게 움직이고 물건을 부수라"는 문화에 뿌리를 둔 데브옵스 관행을 택했습니다. 실험, 민첩성, 위험 감수를 중시하는 접근 방식을 포함해서 말이죠. 이처럼 페이스북은 지속적인 통합과 배포, 자동화된 테스팅, 모니터링을 사용하여 사용자에게 더 빠르고 높은 품질의 새로운 기능과 업데이트를 제공하고 있습니다. 월마트 2011년부터 데브옵스를 도입한 월마트(Walmart)는 자동화와 협업 그리고 지속적인 배포에 중점을 두었습니다. 애자일(Agile) 방법론과 클라우드 기반의 인프라 및 데브옵스 툴체인을 활용하여, 하루에 최대 100번까지 코드를 배포할 수 있게 된 것이죠. 이를 통해 디지털 변환을 가속화하고, 전자상거래 플랫폼을 개선하며, 고객 경험을 향상시킬 수 있었습니다. 위 기업들은 데브옵스라는 도구를 효과적으로 활용하여 비즈니스 성과를 창출하고, 경쟁 우위를 확보할 수 있었습니다. 그렇다면 데브옵스를 도입하기만 하면 무조건 성공할 수 있을까요? │ 데브옵스(DevOps)의 오해와 한계 앞선 질문에 대한 대답은 아쉽게도 NO입니다. 데브옵스는 개발 환경과 문화를 전부 해결해 줄 수 있는 '만능책'은 아니라는 것이죠. 데브옵스가 도입된 이후 새로운 한계점이 발견되었고, 실패할 사례들도 적지 않게 나왔습니다. 이러한 결과는 아래와 같은 오해들에서 비롯될 확률이 높은데요. 대표적으로 3가지만 살펴봅시다. [그림 6] DevOps 구현을 위한 도구 ⓒMedium_Ajesh Martin 오해 1. 데브옵스는 일종의 단순한 도구일 뿐이다? 데브옵스를 '일종의 도구'로만 보는 것은 잘못된 판단입니다. 물론 여러 팀에서 보다 더 나은 환경과 문화를 위해 슬랙(Slack), 젠킨즈(Jenkins), 도커(Docker) 등 여러 도구를 사용하는 것은 좋습니다. 하지만 데브옵스는 이보다 더 광범위한 접근 방식을 담고 있습니다. 즉 개발과 운영팀 간의 협력과 더 빠른 소프트웨어 개발과 배포를 가능하게 하는 방법론을 포함한다는 것이죠. 다시 말해 데브옵스라는 '도구'를 이용하기 이전에, 문화적 그리고 기술적 접근 방식이 바탕이 되어야 데브옵스라는 툴이 도움 될 수 있습니다. 오해 2. 데브옵스는 모든 조직에 적합하다? 만약 '다른 회사에 데브옵스라는 팀이 있으니, 우리도 데브옵스 팀을 만들자'라는 식으로 접근한다면, [그림 2]와 같은 모습이 될 것으로 예상됩니다. 즉 데브옵스의 조직 체계를 구성한다고 해서 데브옵스가 실현될 순 없습니다. 서로 다른 입장과 상황이 있는 개발자-팀-회사, 운영자-팀-회사 간에 상당한 노력을 통해 만들어 내는 것이 더 중요한 것이죠. 이와 비슷한 사례로 애자일(Agile) 문화가 있습니다. 2000년대 초반 '애자일 소프트웨어 선언문'으로 다양한 애자일 방법론이 주목을 받았었죠. 개발에서 빠르고 유연한 방법을 강조하며, 이후 많은 기업들이 애자일 방법론을 도입하게 되며 유행처럼 번져갔습니다. [그림 7] Agile 프로세스 여기서 애자일 문화를 도입한 많은 기업들이 간과했던 사실은, 애자일 문화 도입 자체가 '해결책'이라고 생각했다는 점입니다. 이보다 기존의 조직 문화에서 애자일 문화를 도입하는 것이 적합한 상황인지, 기존의 프로세스보다 효과를 발휘할 수 있는지, 팀 구성원들이 충분히 적응할 수 있는 문화인지 등을 우선적으로 고려하는 것이 더 중요합니다. 데브옵스 역시 마찬가지로 기존의 조직 규모, 문화, 프로젝트의 특성에 대한 명확한 이해가 먼저 선행되어야 합니다. 데브옵스 도입 전에 조직의 현재 상황과 목표를 면밀히 평가한 후, 점진적으로 도입하는 것이 중요하죠. 대기업이나 캐시카우가 있는 기업들이 데브옵스를 실행했다고 해서, 또는 단지 트렌드라는 이유만으로 도입하는 것은 위험할 수 있습니다. 오해 3. 데브옵스는 빠른 소프트웨어 배포만을 목표로 한다? 데브옵스는 속도만 중시하고 품질이나 안정성을 소홀히 한다는 인식이 있습니다. 하지만 데브옵스는 소프트웨어의 빠른 배포뿐만 아니라, 품질과 안정성 그리고 보안을 동시에 추구해야 합니다. 이에 따라 지속적인 통합과 배포(CI/CD), 자동화된 테스트, 모니터링 등을 통해 이러한 목표를 달성하려고 노력해야 하죠. 이처럼 데브옵스라는 도구를 도입하고 데브옵스 팀을 구성했다고 해서, 데브옵스가 즉각적으로 실현되는 것은 아닙니다. │ 데브옵스(DevOps) 보다 선행되어야 하는 '이것' 진정한 데브옵스를 실현하기 위한 방법을 한 문장으로 표현한다면 다음과 같습니다. "싸우지 말고 함께 소프트웨어 시스템 혹은 서비스를 만들어봐요" 힘 빠지는 결론일 수도 있습니다. 하지만 데브옵스를 도입하기 이전에 더 선행되어야 할 것은 각각 다른 업무의 조직원들끼리 서로를 이해하고, 협력하며, 보다 안정적인 시스템과 서비스를 제공하는 '문화'를 만드는 것이 더 현실적인 행동이라고 생각합니다. 물론 데브(Dev)와 옵스(Ops)는 우선순위가 동일하지 않고, 동일한 언어를 사용하지 않을 수 있으며, 매우 다른 관점에서 문제 해결될 가능성이 높습니다. 이처럼 팀을 하나로 모으기 위해서는 상당한 시간과 지속적인 노력이 필요한 것이죠. 그렇다면 어떤 방식으로 팀 협업 문화를 만들어야, 데브옵스를 보다 성공적으로 도입할 수 있을까요? │ 데브옵스(DevOps) 성공을 위한 첫걸음 먼저 조직 내의 문화를 이해한 다음, 조직 내 교육과 커뮤니케이션을 강화하는 것이 중요한데요. 구체적인 방안을 제안한다면 다음과 같습니다. 로테이션 프로그램 도입 진정한 데브옵스를 실현하려면, 무엇보다 각 부서의 업무적인 이해가 중요합니다. 가장 직관적인 방법으로는 다른 부서의 업무를 '직접 체험'해 보는 것입니다. 예를 든다면 개발자가 운영팀의 업무를 수행하거나, 보안 팀이 개발 업무에 참여하는 등, 다양한 부서 간의 경험을 쌓아 보는 것이죠. 이를 통해 서로의 업무 환경과 각 부서 간의 역할을 이해하는 데 큰 도움을 받을 수 있습니다. 지식 공유 플랫폼 구축 내부 플랫폼이나 문서화된 지식 공유 시스템을 구축하는 방법도 있습니다. 각 부서의 업무와 프로세스에 대한 정보를 쉽게 접근할 수 있도록 하는 것이죠. 예를 들면 데브옵스 문화나 기술적인 도구, 프로세스 등을 포함하여 다양한 지식을 공유합니다. 이를 통해 각 부서의 업무 특성을 명확히 이해할 수 있고, 협업을 원활하게 진행할 수 있겠죠. 정기적인 교육 세션 빠르게 변화하는 기술에 대응하기 위해, 팀원들이 지속적으로 학습하고 발전해야 합니다. 정기적인 교육은 이러한 학습을 지원하는 데 중요한 역할을 하는데요. 예를 든다면 새로 도입된 CI/CD 도구에 대한 워크숍을 개최하여, 팀원들이 해당 도구의 사용법과 이점을 학습할 수 있도록 합니다. 또한 현재 사용 중인 프로세스 개선점에 대한 세션을 주기적으로 열어, 팀원들이 학습한 내용을 바탕으로 업무에 효율적으로 적용할 수 있습니다. 만약 특정 분야에 강점을 가진 팀원이 있어 주기적으로 자신의 경험과 성과를 공유한다면, 팀 전체에게 영감을 주고 학습 기회를 제공할 수도 있겠죠. 스탠드 업 미팅 활성화 매일 정해진 시간에 각 팀원이 자신의 진행 상황이나 이슈, 계획을 간결하게 공유합니다. 정해진 시간을 지키고 효율적인 미팅 진행을 위해, 공유하는 팀원들의 말에 집중하되 '총 15분'을 초과하지 않도록 노력하는 것이 중요합니다. 이를 통해 짧은 시간 동안 팀 전체가 빠르게 현재 상황을 파악하고, 실시간으로 정보를 공유하며, 신속하게 문제를 해결할 수 있습니다. 이처럼 위와 같은 방법들을 통해 구성원들이 효과적으로 협력할 수 있는 환경을 조성하는 노력들이 필요합니다. 。。。。。。。。。。。。 많은 기업들이 경쟁에서 지지 않기 위해 도입하고 있는 데브옵스(DevOps). 하지만 진정한 데브옵스를 실현하기 위해서는 "싸우지 말고 소프트웨어 시스템 혹은 서비스를 만들어 봐요"라는 문장처럼 각각 다른 업무의 조직원들끼리 서로 이해하고, 협력하는 문화가 선행되는 것이 매우 중요합니다. 즉 너희 팀 vs 우리 팀 업무를 구분하지 않고 함께 협력하여, 아이디어를 생산하고, 가치를 창출해야 하는 것이죠. 혹시 아직 데브옵스를 도입하기 전이거나, 도입 이후에 올바르게 활용되고 있는지 궁금하시다면, 오늘 이 글을 통해 심도 있게 생각해 보시는 건 어떨까요?
2024.02.14
기술이야기
쿠버네티스를 통해 본 컨테이너 오케스트레이션
기술이야기
쿠버네티스를 통해 본 컨테이너 오케스트레이션
‘쿠버네티스(kubernetes)’는 2013년 구글에서 공개한 이후 컨테이터 오케스트레이션 도구의 표준으로 자리 잡았습니다. CNCF의 1호 졸업 프로젝트이기도 한 쿠버네티스는 지속적인 릴리즈를 거쳐 꽤 성숙한 제품이 됐는데요. 쿠버네티스는 컨테이너화된 어플리케이션을 자동으로 배포하고 스케일링 및 관리하기 위한 컨테이너 오케스트레이션 도구라고 간단하게 정의할 수 있습니다. 일반적으로 컨테이너를 사용할 때 ‘도커(Docker)’를 많이 사용한다는 이야기를 들으셨을 것입니다. 도커는 컨테이너를 쉽게 만들고, 내려받고, 공유할 수 있도록 사용되는 컨테이너 플랫폼입니다. 온프레미스 환경 아래의 배포에서 가상환경의 배포로 발전하고 더 나아가 컨테이너 환경 아래에서 리소스를 관리하게 되면서, 도커는 컨테이너 런타임의 표준으로 자리 잡았습니다. 이미지 출처 ⓒ https://kubernetes.io/ko 컨테이너 환경의 배포는 온프레미스 환경과 가상화 환경의 배포보다 관리는 용이하지만, 컨테이너 수가 많아지게 되면서 부하 분산과 안정적인 배포를 위해 관리해야 할 필요성이 지속적으로 증가하였습니다. 이 때 등장하는 것이 컨테이너의 오케스트레이션 도구라고 할 수 있는 쿠버네티스입니다. 이번 시간에는 컨테이너 오케스트레이션의 주요 도구인 쿠버네티스를 통해 컨테이너 오케스트레이션에 대해 알아보고자 합니다. │쿠버네티스의 주요 목적 쿠버네티스의 주요 목적을 이해하려면 컨테이너 오케스트레이션의 개념을 먼저 짚고 넘어가야 합니다. 컨테이너 오케스트레이션 위키피디아의 정의에 따르면 ‘컴퓨터 리소스 자원과 애플리케이션 및 서비스에 대한 자동화된 설정 및 관리’를 의미합니다. 이를 컨테이너에 적용하면, 여러 컨테이너에 대한 프로세스를 최적화하고 적절한 자원의 할당과 자동으로 컨테이너를 생성하고 배포할 수 있도록 해야 합니다. 소수 사용자를 위한 비교적 단순한 컨테이너 앱은 보통 별도의 오케스트레이션이 필요하지 않을 수 있습니다. 관리자가 각 컨테이너 별 리소스 자원을 할당하면 그만이겠죠. 하지만 만약 앱의 기능과 사용자 수가 사소한 수준 이상이라면, 컨테이너 오케스트레이션 시스템을 사용하지 않고 직접 해결하기 어려워집니다. 무엇보다 아키텍처의 트렌드가 모놀리식(Monolithic Architecture)에서 마이크로서비스(Microservice Architecture)로 변화하는 과정에서 컨테이너의 수는 계속 증가할 것이고 무중단 서비스, 즉 고가용성을 제공해야 하는 환경이라면 컨테이너 오케스트레이션은 원활한 서비스 구성을 위한 필수 요소라고 할 수 있습니다. 마이크로서비스 아키텍처 환경에서는 애플리케이션의 세부 기능들이 작은 서비스 단위로 분리되어 있습니다. 이 각각의 서비스를 구현하는데 컨테이너 기술이 가장 흔하게 이용되는데요, 다수의 컨테이너를 관리하는 상황이라면 위의 4가지 이슈에 대한 해답을 찾아야 합니다. │쿠버네티스의 핵심 아키텍처 앞서 살펴본 4가지 이슈를 해결하기 위해 쿠버네티스는 아래와 같은 네 가지 핵심 아키텍처로 구성되어 있습니다. ① 선언적 구성 기반의 배포 환경 쿠버네티스는 동작을 지시하는 개념보다는 원하는 상태를 선언하는 개념을 주로 사용합니다. 즉 사용자가 설정한 원하는 상태(Desired State)와 현재의 상태(Current State)가 일치하는지를 지속적으로 체크하면서 업데이트합니다. 결과적으로 ‘이렇게 되어야 해!’ 라는 선언적 방식으로 명령을 주면 쿠버네티스는 이를 해석하여 컨테이너들을 자동으로 관리하게 됩니다. ② 기능 단위의 분산 쿠버네티스에서는 각각의 기능들이 모두 독립적인 컴포넌트로 분산되어 있습니다. 앞으로 후술할 쿠버네티스 ‘APIserver’를 통해 내부 컴포넌트들을 컨트롤 하고 있습니다. ③ 클라스터 단위의 중앙 제어 쿠버네티스는 가용할 수 있는 리소스를 클러스터 > 노드 > 파드 단위로 추상화 하여 관리합니다. 각각의 클러스터를 통해 노드를 관리하고 노드 안의 컨테이너를 효율적으로 관리할 수 있습니다. ④ API 기반의 네트워킹 쿠버네티스의 구성 요소들은 오직 ‘APIserver’를 통해서만 상호 접근이 가능한 구조를 가지고 있습니다. 마스터 노드의 ‘Kubectl’라는 컴포넌트를 거쳐 실행되는 모든 명령은 이 API 서버를 거쳐 수행되며, 워커 노드에 포함된 ‘Kubelet’, ‘Kube-proxy’ 역시 API 서버를 통해 상호작용하게 되어 있습니다. │쿠버네티스의 오케스트레이션 기능 컨테이너 오케스트레이션의 핵심은 컨테이너의 프로비저닝, 배포, 네트워킹, 확장 가용성, 라이프사이클 관리, 상태 모니터링 일체를 자동화하는 데 있습니다. 쿠버네티스가 제공하는 오케스트레이션 기능은 위의 컨테이너 관리 이슈에 대한 적절한 해결책을 제공합니다. 이미지 출처 ⓒ https://kubernetes.io/ko ① 오토스케일링 (Auto-Scaling) 쿠버네티스에서 생성하고 관리할 수 있는 가장 작은 컴퓨팅 단위를 파드(Pod)라고 부르는데요. 쿠버네티스는 각 클러스터 안에 있는 노드의 CPU와 메모리 자원에 대한 할당을 Pod를 통해 자동으로 조정합니다. 만약 부하가 증가하여 리소스를 과하게 점유하고 있다면 자동으로 파드 복제본이 실행되어 가용성을 확보할 수 있습니다. ② 스케줄링 (Scheduling) 컨테이너를 일정한 알고리즘에 기초하여 구체적으로 어떤 노드에서 움직이게 할지 배치하는 것을 스케줄링이라고 합니다. ‘Kube Scheduler’라는 컴포넌트를 통해 클러스터 내에 실행할 파드를 노드에 스케줄링 할 수 있습니다. ③ 오토 힐링 (Auto-Healing) 쿠버네티스는 사용자가 지정한 컨테이너의 상태를 지속적으로 관찰하여 비정상적인 상태를 감지하면 컨테이너를 재시작하고 스케줄링을 빠르게 재시작 할 수 있습니다. 사용자의 선언적 상태에 따라 응답하지 않은 컨테이너를 새롭게 구동 시킬 수 있습니다. ④ 분산 부하 (Load-Balancing) 하나의 서비스에 여러 개의 컨테이너가 구동 시, 서비스에 들어오는 요청을 컨테이너들 사이에 균등하게 분배하여 부하를 분산시킵니다. 이를 통해 급증하는 서비스 요청에 대해 효율적인 대응이 가능합니다. │쿠버네티스의 구성요소 쿠버네티스는 총 네 가지의 구성요소로 이루어져 있습니다. 이미지 출처 ⓒ https://kubernetes.io/ko ① 클러스터 (Cluster) CNCF 재단에 따르면 클러스터는 공통의 목표를 위해 작동하는 애플리케이션의 그룹이라고 정의하고 있습니다. 쉽게 표현하면, 클러스터는 컨테이너를 통해 실행되는 여러 서비스들의 집합이라고 할 수 있겠는데요. 클러스터의 구성 목적은 애플리케이션의 효율적인 관리에 그 목적이 있습니다. 일반적으로 컨트롤 타워 역할을 하는 마스터 노드와 컨테이너가 실행되는 워커 노드로 구성되어 있습니다. ② 마스터 노드 (Master Nodes) 마스터 노드는 클러스터 전체를 관리하는 컨트롤 타워의 역할을 합니다. 대규모의 컨테이너 관리를 위해 각 워커 노드들의 리소스 사용률을 고려하여 컨테이너 배치와 모니터링이 필요한데요. 클러스터 내에서 이 역할을 수행하는 노드를 마스터 노드라고 부릅니다. ③ 워커 노드 (Worker Nodes) 워커 노드는 마스터 노드의 컨트롤을 받아 실제 컨테이너를 실행하고 쿠버네티스 실행 환경을 관리합니다. ‘Kubelet’이라는 노드 컴포넌트를 통해 파드의 실행을 직접 관리하며 APIserver와 통신하게 됩니다. 하나의 노드는 일반적으로 여러 개의 파드로 구성됩니다. 마스터 노드를 통해 파드에 대한 스케줄링을 자동으로 처리할 수 있습니다. ④ 파드 (Pod) 쿠버네티스에서 생성하고 관리할 수 있는 가장 작은 컴퓨팅 단위입니다. 위의 그림과 같이 하나의 파드 안에 다수의 컨테이너 혹은 단일 컨테이너로 구성될 수 있는데요. 쿠버네티스는 파드를 통해 컨테이너가 동일한 리소스 및 로컬 네트워크를 공유하게 합니다. 위와 같은 방식으로 컨테이너를 그룹화하면 분산된 환경에서도 동일한 하드웨어를 공유하는 것처럼 컨테이너를 서로 통신할 수 있도록 만듭니다. 파드의 사용 목적은 단순합니다. 일반적으로 서로 다른 컨테이너들이 각기 다른 기능들을 수행하며 하나의 완전한 애플리케이션으로 이루어 지게 되는데요. 이 때, 파드를 통해 각 컨테이너들의 내부 통신이 가능하게 하고 모든 컨테이너에 동일한 환경을 제공해 줄 수 있습니다. 요약하면 파드는 컨테이너가 제공하는 모든 기능을 활용하는 동시에 프로세스가 함께 실행되는 것처럼 보이게 하는 역할을 합니다. │쿠버네티스의 주요 컴포넌트 쿠버네티스의 주요 컴포턴트를 컨트롤 플레인 컴포넌트와 노드 컴포넌트로 나눠서 살펴보겠습니다. ① 컨트롤 플레인 컴포넌트 (Control Plane Components) 마스터 노드의 컨테이너, 워커 노드의 관리는 컨트롤 플레인 컴포넌트를 통해 이루어집니다. 컨트롤 플레인 컴포넌트는 클러스터 전체의 워크로드 리소스 등 주요 구성 요소들을 배포하고 제어하는 역할을 합니다. * Kube-APIserver API서버 라는 이름에서 말해주듯이 쿠버네티스의 컴포넌트와 사용자와의 접점 역할을 맡고 있습니다. 쿠버네티스에서 클러스터의 모든 구성 요소들은 오직 API서버를 통해서만 상호 접근이 가능하도록 설계되어 있습니다. 쿠버네티스의 중앙관리자라는 표현이 어울릴지 모르겠지만, 파드의 생성부터 스케줄링, etcd와의 통신까지 쿠버네티스의 모든 동작 과정에 API서버는 쿠버네티스의 중심에 있습니다. * etcd etcd는 클러스터 안의 각 구성요소에 대한 정보가 키-값 형태로 저장된 자체적인 데이터베이스입니다. 현재 클러스터에 있는 컴포넌트가 몇 개인지, 각각의 파드들이 어떤 노드에 붙어 있는지, 어떤 컨테이너를 들고 있는지에 대한 모든 정보가 etcd에 저장됩니다. 중요한 점은 etcd가 다운된다면 클러스터는 제대로 동작하지 못하게 되므로 자체적인 백업 스케줄링은 쿠버네티스 관리에 필수 요소라고 할 수 있습니다. * kube-controller-manager 컨트롤러 매니저는 클러스터 내에 작업 중인 다양한 리소스들을 모니터링하며 사용자가 설정한 원하는 상태(Desired State)와 현재의 상태(Current State)가 일치하도록 관리하는 작업을 합니다. 주요 컨트롤러로는 파드 복제를 유지해 주는 레플리카셋(ReplicaSet), 앱 배포를 세밀하게 관리할 수 있는 디플로이먼트(Deployment) 등으로 구성되어 있으며, 하나의 패키징 된 형태를 가지고 있습니다. * Kube-Scheduler 스케줄러는 각 파드들이 어떤 노드에서 작업을 수행할지 결정해 주는 역할을 맡고 있습니다. 비유하자면 작업 장소를 선택해 주는 의사 결정만 담당하고 있으며 실질적인 배치 작업은 아래 설명할 Kubelet이 담당하고 있습니다. ② 노드 컴포넌트 (Node Components) 노드 컴포넌트는 노드에서 작동하는 파드들을 관리하기 컴포넌트입니다. 워커 노드뿐 아니라 마스터 노드에서도 존재합니다. * Kubelet Kebelet은 클러스터의 모든 노드에서 실행되는 에이전트입니다. 파드의 실행을 직접적으로 관리한다고 볼 수 있는데요. 컨테이너디(Containerd), 크라이오(CRI-O) 같은 컨테이너 런타임과도 통신이 가능하며 노드 내에 구동 중인 컨테이너에 대한 라이프사이클을 관리합니다. 본래 쿠버네티스에서는 컨테이너 생성과 실행을 위한 런타임 엔진으로 도커(Docker)를 지원해왔으나, 2022년 2월 기준으로 완전히 중단되었습니다. 물론 런타임 엔진에서 도커가 제외된다는 것이 클러스터에서 도커 자체를 사용하지 못하게 된다는 뜻은 아닙니다. * Kube-proxy Kube-proxy는 노드에서 구동되는 쿠버네티스 네트워크 프록시입니다. 쿠버네티스에서 서비스라고 불리는 내부/외부 트래픽을 어느 파드로 전달할 것인지에 대한 규칙을 생성하고 관리하는 역할을 합니다. 。。。。。。。。。。。。 쿠버네티스의 주요 오케스트레이션 기능과 쿠버네티스의 주요 구성 요소 및 컴포넌트들을 살펴보았는데요. 쿠버네티스만이 컨테이너의 관리 복잡성을 해결할 수 있는 유일한 오픈소스는 아닙니다. 아파치 소프트웨어 재단에서 개발한 ‘아파치 메소스(Apache Mesos)’, 도커에서 개발한 ‘도커 스웜(Docker Swarm)’ 등의 컨테이너 관리 오픈소스도 있지만 2024년 현재 쿠버네티스는 독점적인 위치를 차지하고 있습니다. 무엇보다 3대 퍼블릭 클라우드사인 AWS, Azure, GCP 모두 매니지드 쿠버네티스 플랫폼을 제공하고 있습니다. 국내 퍼블릭 클라우드인 kt cloud, 네이버클라우드, NHN클라우드, 가비아, 카카오클라우드, 삼성클라우드플랫폼 등 모두 각 클라우드 환경에 최적화된 쿠버네티스 서비스를 제공하고 있죠. 또한, RedHat은 쿠버네티스 기반의 오픈시프트(OpenShift)를 통해 CaaS(Container as a Service) 시장의 선점을 노리고 있습니다. 스타트업과 대기업을 가리지 않고 기업에서 운영하는 컨테이너 기반의 애플리케이션이 복잡화됨에 따라 컨테이너 오케스트레이션 관리 도구인 쿠버네티스는 이제 기업 IT 운영전략의 핵심 요소가 되었습니다. 제니우스 쿠버네티스 모니터링 화면 예시 브레인즈컴퍼니의 제니우스(Zenius) 역시 컨테이너 모니터링뿐 아니라 쿠버네티스에 대한 모니터링을 환경을 제공하고 있습니다. 멀티 클러스터 환경에서의 모든 클러스터에 대한 모니터링뿐 아니라 Object Meta 정보를 제공하며 다양한 임계치 기반의 이벤트 감시 설정으로 선제적 장애 대응이 가능합니다. 📚참고 자료 쿠버네티스 공식 문서: Kubernetes Components 쿠버네티스 공식 문서: Options for Highly Available Topology 쿠버네티스 공식 문서: Container runtimes
2024.02.05
기술이야기
IT 인프라 모니터링 트렌드
기술이야기
IT 인프라 모니터링 트렌드
EMS란? EMS는 Enterprise Management System의 약자로, 여러 기업과 기관의 IT서비스를 이루는 다양한 IT Infrastructure를 통합적으로 모니터링하는 시스템을 의미합니다. 해외에서는 일반적으로 ITIM(IT Infra Management)이라는 용어로 많이 사용되고 있지만, 국내에서는 EMS라는 용어로 통용되고 있습니다. EMS는 IT인프라의 데이터를 실시간으로 수집 및 분석할 뿐만 아니라, 수집된 데이터를 활용해 비즈니스의 가치를 창출할 수 있습니다. 글로벌 IT분야 연구자문 기업인 “가트너(Gartner)”에서는 ITIM, 즉 EMS를 데이터센터, Edge, IaaS(Infrastructure as a Service), PaaS(Platform as a Service) 등에 존재하는 IT인프라 구성요소의 상태와 리소스 사용률을 수집하는 도구로 정의하며, 컨테이너, 가상화시스템, 서버, 스토리지, 데이터베이스, 라우터, 네트워크 스위치 등에 대한 실시간 모니터링이 가능해야 한다고 서술합니다. <사진 설명: 가트너의 ITIM 정의를 도식화한 그림> 이러한 EMS는 초기에는 기업 전산실에 물리적인 형태로 존재하는 서버, 네트워크의 리소스관리를 중심으로 모니터링해 왔습니다. 서버의 CPU, Memory 등의 리소스 정보를 수집하거나, 네트워크 장비의 트래픽 정보를 모니터링하고 임계치를 기반으로 이벤트 감지하는 역할이 대부분이었으며, 이 정도 수준에서도 충분한 IT 인프라 관리가 이뤄질 수 있었습니다. 그러나 가상화(Virtualization)라는 개념이 생겨나고 다양한 IT 인프라들이 기업 전산실에서 클라우드(Cloud) 환경으로 전환됨에 따라, EMS의 모니터링 분야도 조금씩 바뀌어 가고 있습니다. 많은 기업들이 효율적인 리소스 사용과 비용 절감을 목표로 VMware와 같은 가상화 시스템을 도입해 운영하게 됐으며, 모니터링 부문도 이에 대응하기 위해 가상화 리소스에 대한 관리 영역으로 확장됐습니다. 가상화 환경을 이루는 하이퍼바이저(Hypervisor)와 가상머신(Virtual Machine)의 연관성을 추적하고, 각 가상머신들이 사용하고 있는 리소스를 실시간으로 분석해 효율적인 자원 배분, 즉 프로비저닝(Provisioning)을 위한 근거 데이터를 제공할 수 있도록 하고 있습니다. 더 나아가 VMware, Hyper-V 등의 다양한 가상화 플랫폼에서 가상머신을 생성하고 삭제하고, 실제로 가상머신에 CPU, Memory 등과 같은 리소스를 할당해 줄 수 있는 컨트롤 영역까지 제공하는 제품을 개발하는 벤더사들이 많아지고 있습니다. 이러한 가상화 기술을 기반으로 현대에는 IT 인프라들이 대부분 클라우드 환경으로 전환하고 있는 추세입니다. 클라우드 환경으로의 전환 클라우드(Cloud)란, 언제 어디서나 필요한 컴퓨팅 자원을 필요한 시간만큼 인터넷을 통해 활용할 수 있는 컴퓨팅 방식으로, 최근 기업들은 각자의 목적과 상황에 맞게 AWS, MS Azure와 같은 Public Cloud 및 OpenStack, Nutanix 등을 활용한 Private Cloud 등의 환경으로 기업의 전산설비들을 마이그레이션 하고 있습니다. 클라우드로의 전환과 기술의 발전에 따라, EMS의 IT 인프라 모니터링은 더 이상 *On-Premise 환경에서의 접근이 아닌, Cloud 환경, 특히 MSA(Micro Service Architecture)를 기반으로 하는 클라우드 네이티브(Cloud Native) 관점에서의 IT 운영 관리라는 새로운 접근이 필요하게 됐습니다. (*On-Premise : 기업이 서버를 클라우드 환경이 아닌 자체 설비로 보유하고 운영하는 형태) 클라우드 네이티브란, 클라우드 기반 구성요소를 클라우드 환경에 최적화된 방식으로 조립하기 위한 아키텍처로서, 마이크로서비스 기반의 개발환경, 그리고 컨테이너 중심의 애플리케이션 구동환경 위주의 클라우드를 의미합니다. 클라우드 네이티브는 IT비즈니스의 신속성을 위해 도커(Docker)와 같은 컨테이너를 기반으로 애플리케이션이 운영되므로, EMS는 컨테이너의 성능, 로그, 프로세스 및 파일시스템 등 세부적인 관찰과 이상징후를 판단할 수 있는 기능들이 요구되고 있습니다. 자사 제품인 Zenius SMS에서는 이러한 변화에 따라 Docker에 대한 모니터링 기능을 기본적으로 제공하고 있습니다. Docker 컨테이너가 생성되면 자동으로 관리대상으로 등록되며, Up/Down 뿐만 아니라, CPU, Memory, Network 및 Process의 정보를 실시간으로 모니터링하고 발생되는 로그들을 통합관리 할 수 있도록 합니다. <사진 설명: Zenius-SMS에서 제공하고 있는 Docker 컨테이너 모니터링 기능> 또, 복원력과 탄력성을 위해 쿠버네티스와 같은 오케스트레이션 도구를 활용해 컨테이너를 스핀업하고, 예상되는 성능에 맞게 효율적으로 리소스를 맵핑하고 있으며, 이러한 기술에 대응하기 위해 EMS는 쿠버네티스(Kubernetes), 도커스웜(Docker Swarm) 등의 오케스트레이터들의 동작여부를 직관적으로 관찰하는 제품들이 지속적으로 출시되고 있는 상황입니다. 이와 더불어 컨테이너, 오케스트레이터의 동적 연결관계를 실시간으로 모니터링하고, 파드(POD), 클러스터, 호스트 및 애플리케이션의 관계를 표현하는 역할의 중요성이 점차 커져가고 있습니다. 통합 모니터링(Monitoring) EMS 모니터링의 또 다른 변화로는 통합(Integration)의 역할이 더더욱 강해지고 있다는 것입니다. IT 서비스가 복잡해지고 다양해짐에 따라 IT 인프라의 관리 범위도 점차 증가하면서, 다양한 IT 인프라들을 융합하고 관리하기 위한 노력들이 관찰되고 있습니다. 데이터독(Datadog), 스플렁크(SPLUNK)와 같은 장비 관점의 모니터링 벤더들은 APM과 같은 애플리케이션 모니터링 시장으로, 앱다이나믹스(AppDynamics), 다이나트레이스(Dynatrace), 뉴렐릭(NewRelic)과 같은 애플리케이션 모니터링 시장의 강자들은 인프라 장비 관점의 모니터링 시장으로의 융합이 확인되고 있습니다. 자사 제품인 Zenius 역시 서버, 네트워크 중심의 관리에서 애플리케이션, 데이터베이스 등의 시장으로 관리 범위를 확장해 나가고 있는 추세입니다. IT 서비스의 영속성을 유지하기 위해서는 IT 서비스를 구성하는 다양한 요소들을 실시간으로 모니터링하고 연관관계를 추적해 문제 원인을 찾아내는 것이 중요하기 때문에 다양한 IT 요소들을 통합적으로 모니터링하는 것 뿐만 아니라, 상호 연관관계를 표현하고 추적할 수 있는 기능들이 지속적으로 요구되고 있습니다. 모니터링의 트렌드는 서버, 네트워크 등의 독립적인 개체에 대한 모니터링 아닌 IT 서비스를 중심으로 기반 요소들을 모두 통합적으로 모니터링하고, 각 상호간의 의존성과 영향도를 파악해 RCA(Root Cause Analysis) 분석을 가능하게 하고 이를 통해 IT 서비스의 연속성을 보장할 수 있는 통찰력을 확보하게끔 하는 방향으로 흘러가고 있습니다. Zenius는 서버, 네트워크, 애플리케이션, 데이터베이스 및 각종 로그들의 정보를 시각적으로 통합 모니터링할 수 있는 오버뷰(Overview) 도구와 IT 서비스 레벨에서 인프라들의 연관관계를 정의하고 다양한 조건(Rule)에 따라 서비스 이상유무와 원인분석이 가능한 서비스 맵(Service Map) 도구를 기본적으로 제공하고 있습니다. <사진 설명: Zenius 오버뷰 화면> <사진 설명: Zenius 서비스맵 화면> 앞서 언급했듯이, 클라우드 환경으로 전환함에 따라 통합적 관리 요구는 더욱 높아지고 있습니다. IT 인프라에 대한 통합 뿐만 아니라, AD(Active Directory), SAP 및 AWS, Azure, GCP 등의 다양한 서비스의 주요 지표까지 연계하고 하나의 시스템으로 통합 모니터링하기 위한 노력들이 관찰되고 있습니다. 데이터독(Datadog)의 경우, 500개 이상의 시스템, 애플리케이션 및 서비스들의 지표들을 손쉽게 통합 관리할 수 있다고 돼있습니다. <사진 설명: 데이터독 홈페이지 캡처> 이처럼 IT 서비스의 복잡성과 다양화에 따라 관리해야 될 서비스와 지표들은 점점 늘어나고 있으며, 기업의 현황에 맞게 컴포넌트 기반으로 손쉽게 지표들을 통합할 수 있는 기능과 도구들이 요구되고 있습니다. AI 기반의 예측&자동화 모니터링의 세번째 변화로는 ’AI 기반의 예측과 자동화’입니다. IT 인프라 및 서비스의 주요 지표를 모니터링하는 것도 중요하지만, 축적된 데이터를 기반으로 미래의 상황을 예측 및 이상탐지해 사전에 대비할 수 있는 체계를 갖추는 일은 모니터링 시장에서 중요한 이슈로 자리잡고 있습니다. 현재의 AIOps(AI for IT Operations)를 표방하는 모니터링 기술들은 서버, 네트워크, 애플리케이션, 데이터베이스 등의 주요 지표들을 실시간으로 수집하고, 저장된 데이터를 기반으로 AI 알고리즘 또는 통계기법을 통해 미래데이터를 예측하며 장애 발생가능성을 제공하고 있습니다. 이와 같은 기술을 통해 미래 성능 값을 예측해 IT 인프라의 증설 필요성 등을 판단하고, 장애 예측으로 크리티컬한 문제가 발생되기 전에 미리 조치를 취할 수 있도록 해 효율적인 의사결정을 할 수 있도록 합니다. Zenius도 4차 산업혁명 및 디지털 뉴딜시대가 도래함에 따라 미래예측 기능을 최신 버전에 탑재했으며, 이를 통해 IT운영자가 미래 상황에 유연하고 선제적으로 대응할 수 있도록 합니다. Zenius에서는 서버, 네트워크, 애플리케이션 등 다양한 IT 인프라의 미래 성능 값, 패턴 범위, 이상 범위 등을 예측해 IT 운영자에게 제시합니다. <사진 설명: 인공지능(AI) 기반 미래데이터 예측 화면> 다만, 인공지능 기술을 통해 장애 발생 가능성을 탐지하는 기능 외에, 어디에 문제가 발생됐는지 알려주는 기능은 모니터링 시장에 과제로 남아있고, 이를 제공하기 위한 여러 업체들의 노력이 보이고 있습니다. 이제는 EMS에서 보편적인 것이 됐지만, 모바일 기기를 통해 시∙공간적 제약 없는 모니터링이 이뤄지고 있습니다. 다양한 기종의 스마트폰, 태블릿PC 등을 이용해 운영콘솔(Console) 뿐만 아니라, 회의 등 시간을 잠시 비우더라도 IT 인프라에 대한 연속적인 모니터링이 모바일기기를 통해 가능해졌습니다. <사진 설명: 다양한 기기를 통한 모니터링>
2022.09.05
1