반복영역 건너뛰기
주메뉴 바로가기
본문 바로가기
제품/서비스
EMS Solution
Features
클라우드 관리
AI 인공지능
서버관리
데이터베이스 관리
네트워크 관리
트래픽 관리
설비 IoT 관리
무선 AP 관리
교환기 관리
운영자동화
실시간 관리
백업 관리
APM Solution
애플리케이션 관리
URL 관리
ITSM Solution
서비스데스크
IT 서비스 관리
Big Data Solution
SIEM
Dashboard
대시보드
Consulting Service
컨설팅 서비스
고객
레퍼런스
고객FAQ
문의하기
가격
자료실
카탈로그
사용자매뉴얼
회사소개
비전·미션
연혁
2016~현재
2000~2015
인증서·수상
투자정보
재무정보
전자공고
IR자료
새소식
공고
보도자료
오시는 길
채용
피플
컬처
공고
FAQ
블로그
열기
메인 페이지로 이동
블로그
최신이야기
블로그
최신이야기
사람이야기
회사이야기
기술이야기
다양한이야기
제니우스(Zenius), 웰메이드 드라마와 언론사에서도 주목하다
클라우드 전환과 하이브리드 클라우드가 성공하려면?
오다인
2024.01.18
페이스북 공유하기
트위터 공유하기
링크드인 공유하기
블로그 공유하기
가트너부터 딜로이트까지, 2024 IT트렌드 총정리
정부와 공공기관, 그리고 금융권과 대기업 등 모든 분야에서 클라우드 전환이 가속화되고 있습니다. 이에 따라서 가트너(Gartner)는 2018년 약 2.1조 원이었던 국내 클라우드 시장 규모가 2024년에는 약 '6조 원'에 이를 것으로 내다봤습니다.
。。。。。。。。。。。。
1. 클라우드 전환 단계
▪
초창기:
소규모 Workload가 시범적으로 전환되는 시기
▪
과도기:
인프라, 네이티브 앱 등 주요 Workload가 전환되는 시기
▪
정착기:
모든 Workload가 클라우드에서 개발/구축되는 시기
클라우드 전환은 크게 세 단계로 나누어서 진행됩니다. 대부분의 기업과 기관이 현재 '클라우드 전환 과도기'에 접어든 가운데, 몇 가지 작지 않은 이슈로 인한 어려움을 겪고 있습니다.
2. 클라우드 송환? 클라우드에서 On-Premise로 복귀?!
IDC는 최근, "향후 2년 내 프라이빗 클라우드(Private Cloud) 또는 비 클라우드 환경으로의 이전을 계획하고 있는 기업의 비중이 70%가 넘는 것으로 나타났으며, 이러한 현상은 더욱 심화될 전망이다"라고 발표했습니다.
'클라우드 송환(Cloud Repatriation)'이라고도 부를 수 있는 이 같은 현상은, 주로 클라우드의 높은 비용·성능 문제·보안 및 규제·공급자 Lock-in 등이 주요 원인으로 지적되고 있습니다.
이와 같은 클라우드 전환 과도기에서의 어려움을 극복하고 효율성을 높이기 위해, '하이브리드 클라우드'로의 전환이 새로운 트렌드로 자리 잡았습니다.
3. 유연하게 활용한다! ‘하이브리드 클라우드’로의 전환 트렌드
하이브리드 클라우드(Hybrid Cloud)는 퍼블릭·프라이빗 클라우드와 대형 IDC 센터와 같은, 온프레미스(On-Premise) 환경을 조합하여 사용하는 것을 말합니다.
ⓒ디지털 서비스 이용 지원 시스템
현재 87% 이상의 기업이 2가지 이상의 멀티 클라우드를 사용하며, 72% 이상은 하이브리드 클라우드를 사용하는 것으로 나타났습니다.
하이브리드 클라우드의 장점
▪
다양한 환경을 조합하여 유연하게 리소스를 확장하거나 축소 가능
▪
민감정보를 프라이빗 클라우드에 유지하여 보안성 강화
▪
서로 다른 클라우드 환경의 장점의 조합 및 활용 가능
하이브리드 클라우드는 위와 같은 분명한 장점이 있기에, 계속해서 많은 기업과 기관이 사용할 것으로 예상됩니다. 하지만 하이브리드 클라우드도 반드시 극복해야 할 한계와 문제점이 있습니다. 하이브리드 클라우드의 한계는 크게 세 가지로 나눠볼 수 있는데요.
4. 하이브리드 클라우드의 세 가지 한계, 그리고 극복 방안
관리의 복잡성
Complexity
On-Premise, 하이브리드 클라우드, 퍼블릭 클라우드 등은 모두 서로 다른 인프라 구성과 특성을 보유하고 있습니다. 따라서 다양한 CSP와 Legacy 시스템 등을 종합적으로 관제하기 위한 모니터링 기술이 필요합니다.
정책의 분산화
Decentralization
각 CSP의 독자적인 기술과 운영환경에 따라, 기업의 IT 인프라 관리 정책이 분산화될 우려가 있습니다. 따라서 서로 다른 API 환경에 대응할 수 있는 중립적인 모니터링 접근 방식이 필요합니다.
서비스 품질 이슈
Quality
이기종 환경에서의 실시간 성능 모니터링 부재로, 서비스 품질 및 성능 문제가 발생할 수 있습니다. 따라서 실시간 상태 및 성능 지표 모니터링을 통한 최적의 프로비저닝 역량 확보가 중요합니다.
결국 하이브리드 클라우드의 세 가지 한계를 극복할 수 있는 '성공적인 모니터링 전략'이 필요합니다.
5. 하이브리드 클라우드 환경에서의 성공적인 모니터링 전략
앞서 살펴본 것처럼 하이브리드 클라우드의 효율을 높이고 한계를 극복하기 위해선,
성공적인 클라우드 & On-Premise 통합 모니터링
이 필요합니다.
통합 모니터링을 통해서 다양한 관리 Point를 단일화하고, 일관된 IT 정책을 적용하며, 다양한 관점별 View를 통한 데이터 가시성을 확보할 수 있습니다.
또한 각 환경에 대한 실시간 성능 지표 모니터링과 신속한 장애 감지 및 원인 분석을 통해, 높은 서비스 품질을 유지할 수 있습니다. 주요 Point에 대해서 자세히 살펴본다면 다음과 같습니다.
l 단일 Framework 기반의 통합 모니터링 환경 구성
성공적인 모니터링을 위해서는 Public/Private 클라우드와 On-Premise를 아우르는 단일 Framework 기반의 통합 모니터링 환경을 구성해야 합니다. 다양한 환경에 대한 통합 모니터링 시스템을 구축하여, 대시보드와 토폴로지 맵 등을 통해 분산된 IT 리소스와 서비스 정보를 한눈에 볼 수 있어야 하는 것이죠.
l 퍼블릭 클라우드 모니터링: 통합 관리 및 운영 가시성 확보
제니우스(Zenius)의 클라우드 서비스 맵
이용 중인 클라우드 서비스 전체 및 개별 단위의 주요 지표 상세 모니터링으로, 가시성을 확보해야 합니다. 이를 통해서 다양한 서비스의 주요 지표를 관리, 이용 서비스 간의 연관관계 관리, 과금(Billing) 관리, 즉각적인 장애 관리를 할 수 있습니다.
l 프라이빗 클라우드 모니터링: 개별적인 구성 환경을 고려한 모니터링
각 기업과 공공기관 개별적인 클라우드 구성 환경을 고려하여, 클라우드 인프라 자원을 관리하고 활용도를 높이기 위한 모니터링 전략도 필요합니다. 위의 설명처럼 쿠버네티스(Kubernetes), 컨테이너(Container), SDN 등 프라이빗 클라우드 환경을 구성하는 요소를 다각적으로 관리하여 IT 인프라 자원의 활용도를 향상시켜야 합니다.
l MSA 기반 애플리케이션 모니터링
IDC에 따르면 2025년에 출시되는 앱의 90% 이상이 '클라우드 네이티브'로 구현될 전망이라고 합니다.
클라우드 네이티브의 핵심은 'MSA(Micro Service Architecture)' 방법론으로의 전환입니다. 애플리케이션을 효과적으로 실행·배포·활용하기 위한 핵심요소는 'Container'이죠.
따라서 MSA 환경에서의 성공적인 애플리케이션 관리를 위해서는 실시간 모니터링, 분산 시스템 관제, 서비스 수요 변화 대응 이 세 가지가 가장 중요합니다.
위 도표에 정리된 것처럼 컨테이너 기반의 마이크로 서비스 모니터링, 복잡화된 시스템 간 트랜잭션 분석 및 가시화, 오토스케일링 자동 대응을 통한 관제 연속성 확보 전략을 구축한다면 성공적으로 MSA 기반의 애플리케이션 모니터링을 할 수 있습니다.
l 레거시 환경 모니터링
마지막으로 On-premise로 자체 보유하고 있는 레거시 장비와 프라이빗 클라우드 장비가 있는 전산실의 성공적인 모니터링을 위해서는, 먼저 On-premise 환경을 고려한 최적의 포인트 솔루션과 통합 플랫폼 기반 모니터링이 확보되어야 합니다.
또한 안정적인 On-Premise 환경 운영을 위해 전산실 부대설비(UPS, 항온 항습기 등), 환경감시(온/습도, 누수 등)에 대한 레거시 환경 맞춤형 관리가 가능해야 합니다. 물리/가상 자원 간의 그룹화 관리 기능, 다양한 자원 간의 이벤트 연관 설정 및 분석 기능도 성공적인 레거시 환경 모니터링을 위한 필수조건입니다.
6. 성공적인 모니터링 솔루션 선택 기준은?
클라우드 전환기, 하이브리드 클라우드 환경에서 성공적인 모니터링을 위한 루션 선택 기준은
1) 기술력이 있는지 2) 검증된 솔루션인지 3) 믿을 수 있는 기업인지
이렇게 세 가지로 정리할 수 있습니다.
하나, 기술력이 있는 솔루션인가?
클라우드와 레거시 통합을 위한 프레임워크 기반의 솔루션
인지, 그리고
여러 환경에 존재하는 IT 자원을 통합적으로 가시화
할 수 있는지,
변화에 쉽게 대응할 수 있는 사용자 맞춤 설계형 대시보드를 제공
하는지를 꼭 살펴봐야 합니다.
브레인즈컴퍼니 제니우스(Zenius)의 퍼블릭 클라우드 서비스 관제 예시
또한 AI 기술을 통해 장애를 사전에 예방하는 제니우스(Zenius) 처럼,
서비스 장애로 인한 손실을 방지하기 위한 사전 장애 감지 및 대응도 지원
하는지 꼭 살펴봐야 합니다. 업무 효율과 편의성을 높이기 위한
오토스케일링 자동 대응, 장애/이벤트 오토리커버리 등 운영 자동화 기능
도 필수 요소입니다.
둘, 검증된 솔루션인가?
클라우드 서비스 보안인증(CSAP), 마켓플레이스 등록 등 클라우드 환경에서의 성능 검증 절차 등 거친 솔루션
인지도 중요하게 살펴봐야 합니다. 또한 다수의 공공기관 및 다양한 산업군에서 사용되고 있는지도 중요한 판단 기준입니다.
셋, 믿을 수 있는 기업의 솔루션인가?
마지막으로
모니터링 서비스를 개발 및 운영한 업력, 재무 상태 안정성, 전문 인력 보유 등으로 지속적인 지원
이 가능한 기업의 솔루션인지를 검토해 봐야 합니다.
。。。。。。。。。。。。
브레인즈컴퍼니는 전통적인 IT 인프라 모니터링 시장에서의 경험을 바탕으로, 하이브리드 환경에서의 성공적인 모니터링을 수행하고 있습니다. 이제 필수가 된 클라우드 전환, 제대로 된 솔루션 선택을 통해 성공적으로 진행하시기 바랍니다!
#클라우드
#하이브리드클라우드
#프라이빗클라우드
#Cloud
오다인
프리세일즈팀
프리세일즈팀에서 사업 수주를 위한 업무를 수행하며 Zenius의 위닝 포인트를 만들어 갑니다.
필진 글 더보기
목록으로
추천 콘텐츠
이전 슬라이드 보기
머신러닝 기반 메트릭 데이터 이상탐지
머신러닝 기반 메트릭 데이터 이상탐지
개요 이상탐지(Anomaly Detection)는 시계열 데이터에서 과거 또는 비슷한 시점의 다른 데이터의 보편적인 패턴에서 벗어나거나, 벗어나려는 징후가 있는 드문 패턴이나 사실, 대상 개체를 찾아내는 데이터 분석의 한 분야입니다. 시계열이 아닌 것 중에 이상한 것을 찾는 것은 대부분 아웃라이어 탐지에서 다루고 있으나, 아웃라이어 탐지와 이상탐지를 구분하지 않고 넓은 의미에서 이상탐지로 취급합니다. 기존에는 이상탐지를 위해 통계학 기술을 많이 사용해 왔으나, 최근에는 머신러닝 기술을 이상탐지에 적용하는 사례가 늘어가고 있습니다. 당사의 ITIM 제품인 Zenius EMS는 과거 성능 패턴에 대해서 통계 기반의 상∙하한 동적임계치를 구한 뒤, 임계치를 벗어날 가능성이 있는 성능치에 대한 장애 발생가능성을 선제적으로 통보해주는 Proactive(사전장애예측-이상탐지) 기능이 이미 구현돼 있습니다. 필자는 최근에 주목받고 있는 AI 기술을 접목해 단일 성능치가 아닌 메트릭 데이터 셋에 대한 이상탐지 기능을 구현하기 위한 연구를 진행했고 그 결과에 대해 기술하고자 합니다. 이상탐지와 머신러닝 머신러닝으로 이상탐지를 구현하는 학습법은 ▲지도학습 ▲비지도학습 ▲반지도학습으로 구분할 수 있습니다. 지도학습 기반으로 머신러닝을 구현하기 위해서는 기존에 수집된 데이터 중 정상적인 데이터 셋과 이상한 것으로 판별된 데이터 셋을 적절히 섞어서 학습데이터 셋을 만들어야 합니다. 그러나 실제 수집되는 데이터에서 이상 사례로 판별된 학습 데이터를 확보화는 것은 상당히 어렵습니다. 소량의 정답데이터를 이용해서 비슷한 것을 찾아 내거나 학습데이터를 확장시키는 반지도학습을 고려할 수도 있지만, 이 경우도 고객사에 제품을 납품한 이후 일정 시간동안 이상사례에 대한 학습 데이터를 수집해야 하고, 좋은 모델을 만드는데 시간이 너무 오래 소요됩니다. 따라서, 고객사에 제품 납품 후 머신러닝을 빠르게 적용할 수 있도록 비지도학습을 통해 이상탐지를 구현할 수 있는 방법을 중점적으로 고려하게 됐습니다. 비지도학습 이상탐지 ITIM 제품인 Zenius EMS가 수집하는 메트릭 데이터는 대부분 정상 데이터이므로 수집된 데이터 중 일부 비정상 데이터(감시설정에 의해 이벤트가 발생된 데이터)를 자동으로 제거해서 비지도학습을 수행했습니다. 학습에 사용되는 데이터는 모두 정상 데이터이므로 PCA(Principal Component Analysis)를 이용해 차원을 축소하고 복원하는 과정을 통해 비정상 데이터를 검출할 수도 있으나 이번 연구에서는 Neural Network의 Autoencoder 기반의 머신러닝 기법을 사용했습니다. Autoencoder는 입력을 Latent Variable로 압축하는 Encoding과, 이를 다시 원본에 가깝게 복원해내는 Decoding 과정으로 진행되며 이를 통해 데이터의 중요한 정보들만 압축적으로 학습할 수 있습니다. <그림 설명: Autoencoder 개요> 위 그림은 Autoencoder의 기본적인 원리를 나타내고 있습니다. 정상 데이터셋을 통해 학습된 Autoencoder에 정상 샘플을 입력하게 되면 Decoder를 통해 나온 출력이 정상 샘플과 유사하게 잘 복원되지만 비정상적인 샘플을 입력하게 되면, 입력과 출력 값의 차이가 도드라지게 발생하게 되므로 비정상 샘플을 검출할 수 있습니다. 다만, Autoencoder의 Code Size(Latent Variable의 Dimension) 같은 Hyper-Parameter에 따라 전반적인 복원 성능이 좌우되기 때문에 판정 정확도가 지도학습에 비해 다소 불안정하다는 단점이 존재합니다. 또, Autoencoder의 입력과 출력의 차이를 어떻게 정의할 것인지, 어떤 Loss Function을 사용해서 Autoencoder를 학습시킬지 등 여러가지 요인에 따라 성능이 크게 달라질 수 있습니다. 이를 보완하기 위해 ICLE 2018 Conference에서 발표된 Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection을 이용했습니다. (https://iclr.cc/Conferences/2018/Schedule?showEvent=126) DAGMM DAGMM은 축소된 차원과 복원 오차에 대한 특성을 유지하여 입력 값의 중요 정보를 저차원상에서도 보존합니다. DAGMM에서는 차원 축소를 위한 Compression Network에 Autoencoder를 사용해 저차원상의 자료와 축소된 저차원상에서 original data 공간으로의 복원 에러에 대한 특성 정보를 계산할 수 있습니다. DAGMM은 학습된 저차원 공간에서 GMM(Gaussian Mixture Model)을 활용해 복잡한 구조를 가진 입력 자료에 대한 밀도 함수 추정을 수행합니다. 차원 축소와 밀도 함수 추정을 동시에 최적화하기 위해, DAGMM은 저차원 입력을 계산한 뒤, 혼합 밀도 함수를 추정하는 Estimation Network를 사용하고, 입력 자료를 저차원으로 축소시킨 뒤 에너지/가능도 평가 가능하게 해 GMM의 모수를 직접 추정합니다. <그림 설명: DAGMM 개요> DAGMM은 위 그림과 같이 두개의 주요 요소인 Compression Network와 Estimation Network로 구성돼 있습니다. Compression Network는 Deep Autoencoder를 사용해 입력 자료의 차원을 축소하고, Estimation Network는 차원이 축소된 자료를 입력 값으로 해, GMM의 가능도/에너지를 예측합니다. DAGMM에 대한 자세한 내용을 원하시는 경우, ICLR 2018 Conference 홈페이지의 논문 및 자료를 참조해 주십시오. DAGMM 기반 이상탐지 ITIM 제품인 Zenius EMS의 이상탐지를 위해 입력 데이터 셋은 메트릭 데이터로 구성합니다. 연관관계가 있다고 판단되는 메트릭 데이터 중 CPU Usage, Memory Usage, Disk Busy Rate, Network In bps 값을 4차원 데이터셋으로 구성한 후, DAGMM의 Compression Network를 통해 차원 축소를 진행하고 Estimation Network를 통해 가능도 및 에너지 예측을 진행했습니다. 입력 데이터셋은 실제 장비의 메트릭 데이터 중 최근 1000개의 데이터를 사용해 구성했으며, 모델의 정확성을 확인하기 위해 2개의 이상치 데이터를 혼합했습니다. 입력 데이터셋으로 사용된 4차원 데이터를 도식화하기 위해 3차원 Scatter 차트를 사용해서 데이터를 출력하면 아래와 같습니다. <그림 설명: 입력 데이터셋(1)> 위의 그림으로 CPU Usage, Memory Usage, Disk Busy Rate의 관계를 확인할 수 있으며, 이상치 데이터는 붉은 점으로 표시됐습니다. <그림 설명: 입력 데이터셋(2)> 위의 그림으로 CPU Usage, Memory Usage, Network Input bps의 관계를 확인할 수 있으며, 이상치 데이터는 역시 붉은 점으로 표시됐습니다. 입력 데이터셋에 대해 DAGMM epoch 횟수를 1000번으로 학습하여 모델을 생성할 경우 아래와 같은 Energy 밀도와 값을 얻을 수 있습니다. <그림 설명: DAGMM Energy 밀도(1)> <그림 설명: DAGMM Energy 밀도(2)> 생성될 모델에 대해 Energy 값의 99%를 초과할 경우를 이상치 데이터 셋으로 정의할 경우 아래와 같이 입력 데이터셋에서 이상치 데이터로 입력한 값들에 대해 정확하게 이상 징후를 탐지합니다. 이상과 같이 ITIM 제품인 Zenius EMS의 메트릭 데이터에 대한 이상 징후 탐지를 수행하는 방법에 대한 개괄적인 내용을 설명했으며, 이 모델은 당사의 Zenius EMS 시스템의 실시간 이상징후 탐지에 적용할 예정입니다.
2022.08.04
IT 인프라 모니터링 트렌드
IT 인프라 모니터링 트렌드
EMS란? EMS는 Enterprise Management System의 약자로, 여러 기업과 기관의 IT서비스를 이루는 다양한 IT Infrastructure를 통합적으로 모니터링하는 시스템을 의미합니다. 해외에서는 일반적으로 ITIM(IT Infra Management)이라는 용어로 많이 사용되고 있지만, 국내에서는 EMS라는 용어로 통용되고 있습니다. EMS는 IT인프라의 데이터를 실시간으로 수집 및 분석할 뿐만 아니라, 수집된 데이터를 활용해 비즈니스의 가치를 창출할 수 있습니다. 글로벌 IT분야 연구자문 기업인 “가트너(Gartner)”에서는 ITIM, 즉 EMS를 데이터센터, Edge, IaaS(Infrastructure as a Service), PaaS(Platform as a Service) 등에 존재하는 IT인프라 구성요소의 상태와 리소스 사용률을 수집하는 도구로 정의하며, 컨테이너, 가상화시스템, 서버, 스토리지, 데이터베이스, 라우터, 네트워크 스위치 등에 대한 실시간 모니터링이 가능해야 한다고 서술합니다. <사진 설명: 가트너의 ITIM 정의를 도식화한 그림> 이러한 EMS는 초기에는 기업 전산실에 물리적인 형태로 존재하는 서버, 네트워크의 리소스관리를 중심으로 모니터링해 왔습니다. 서버의 CPU, Memory 등의 리소스 정보를 수집하거나, 네트워크 장비의 트래픽 정보를 모니터링하고 임계치를 기반으로 이벤트 감지하는 역할이 대부분이었으며, 이 정도 수준에서도 충분한 IT 인프라 관리가 이뤄질 수 있었습니다. 그러나 가상화(Virtualization)라는 개념이 생겨나고 다양한 IT 인프라들이 기업 전산실에서 클라우드(Cloud) 환경으로 전환됨에 따라, EMS의 모니터링 분야도 조금씩 바뀌어 가고 있습니다. 많은 기업들이 효율적인 리소스 사용과 비용 절감을 목표로 VMware와 같은 가상화 시스템을 도입해 운영하게 됐으며, 모니터링 부문도 이에 대응하기 위해 가상화 리소스에 대한 관리 영역으로 확장됐습니다. 가상화 환경을 이루는 하이퍼바이저(Hypervisor)와 가상머신(Virtual Machine)의 연관성을 추적하고, 각 가상머신들이 사용하고 있는 리소스를 실시간으로 분석해 효율적인 자원 배분, 즉 프로비저닝(Provisioning)을 위한 근거 데이터를 제공할 수 있도록 하고 있습니다. 더 나아가 VMware, Hyper-V 등의 다양한 가상화 플랫폼에서 가상머신을 생성하고 삭제하고, 실제로 가상머신에 CPU, Memory 등과 같은 리소스를 할당해 줄 수 있는 컨트롤 영역까지 제공하는 제품을 개발하는 벤더사들이 많아지고 있습니다. 이러한 가상화 기술을 기반으로 현대에는 IT 인프라들이 대부분 클라우드 환경으로 전환하고 있는 추세입니다. 클라우드 환경으로의 전환 클라우드(Cloud)란, 언제 어디서나 필요한 컴퓨팅 자원을 필요한 시간만큼 인터넷을 통해 활용할 수 있는 컴퓨팅 방식으로, 최근 기업들은 각자의 목적과 상황에 맞게 AWS, MS Azure와 같은 Public Cloud 및 OpenStack, Nutanix 등을 활용한 Private Cloud 등의 환경으로 기업의 전산설비들을 마이그레이션 하고 있습니다. 클라우드로의 전환과 기술의 발전에 따라, EMS의 IT 인프라 모니터링은 더 이상 *On-Premise 환경에서의 접근이 아닌, Cloud 환경, 특히 MSA(Micro Service Architecture)를 기반으로 하는 클라우드 네이티브(Cloud Native) 관점에서의 IT 운영 관리라는 새로운 접근이 필요하게 됐습니다. (*On-Premise : 기업이 서버를 클라우드 환경이 아닌 자체 설비로 보유하고 운영하는 형태) 클라우드 네이티브란, 클라우드 기반 구성요소를 클라우드 환경에 최적화된 방식으로 조립하기 위한 아키텍처로서, 마이크로서비스 기반의 개발환경, 그리고 컨테이너 중심의 애플리케이션 구동환경 위주의 클라우드를 의미합니다. 클라우드 네이티브는 IT비즈니스의 신속성을 위해 도커(Docker)와 같은 컨테이너를 기반으로 애플리케이션이 운영되므로, EMS는 컨테이너의 성능, 로그, 프로세스 및 파일시스템 등 세부적인 관찰과 이상징후를 판단할 수 있는 기능들이 요구되고 있습니다. 자사 제품인 Zenius SMS에서는 이러한 변화에 따라 Docker에 대한 모니터링 기능을 기본적으로 제공하고 있습니다. Docker 컨테이너가 생성되면 자동으로 관리대상으로 등록되며, Up/Down 뿐만 아니라, CPU, Memory, Network 및 Process의 정보를 실시간으로 모니터링하고 발생되는 로그들을 통합관리 할 수 있도록 합니다. <사진 설명: Zenius-SMS에서 제공하고 있는 Docker 컨테이너 모니터링 기능> 또, 복원력과 탄력성을 위해 쿠버네티스와 같은 오케스트레이션 도구를 활용해 컨테이너를 스핀업하고, 예상되는 성능에 맞게 효율적으로 리소스를 맵핑하고 있으며, 이러한 기술에 대응하기 위해 EMS는 쿠버네티스(Kubernetes), 도커스웜(Docker Swarm) 등의 오케스트레이터들의 동작여부를 직관적으로 관찰하는 제품들이 지속적으로 출시되고 있는 상황입니다. 이와 더불어 컨테이너, 오케스트레이터의 동적 연결관계를 실시간으로 모니터링하고, 파드(POD), 클러스터, 호스트 및 애플리케이션의 관계를 표현하는 역할의 중요성이 점차 커져가고 있습니다. 통합 모니터링(Monitoring) EMS 모니터링의 또 다른 변화로는 통합(Integration)의 역할이 더더욱 강해지고 있다는 것입니다. IT 서비스가 복잡해지고 다양해짐에 따라 IT 인프라의 관리 범위도 점차 증가하면서, 다양한 IT 인프라들을 융합하고 관리하기 위한 노력들이 관찰되고 있습니다. 데이터독(Datadog), 스플렁크(SPLUNK)와 같은 장비 관점의 모니터링 벤더들은 APM과 같은 애플리케이션 모니터링 시장으로, 앱다이나믹스(AppDynamics), 다이나트레이스(Dynatrace), 뉴렐릭(NewRelic)과 같은 애플리케이션 모니터링 시장의 강자들은 인프라 장비 관점의 모니터링 시장으로의 융합이 확인되고 있습니다. 자사 제품인 Zenius 역시 서버, 네트워크 중심의 관리에서 애플리케이션, 데이터베이스 등의 시장으로 관리 범위를 확장해 나가고 있는 추세입니다. IT 서비스의 영속성을 유지하기 위해서는 IT 서비스를 구성하는 다양한 요소들을 실시간으로 모니터링하고 연관관계를 추적해 문제 원인을 찾아내는 것이 중요하기 때문에 다양한 IT 요소들을 통합적으로 모니터링하는 것 뿐만 아니라, 상호 연관관계를 표현하고 추적할 수 있는 기능들이 지속적으로 요구되고 있습니다. 모니터링의 트렌드는 서버, 네트워크 등의 독립적인 개체에 대한 모니터링 아닌 IT 서비스를 중심으로 기반 요소들을 모두 통합적으로 모니터링하고, 각 상호간의 의존성과 영향도를 파악해 RCA(Root Cause Analysis) 분석을 가능하게 하고 이를 통해 IT 서비스의 연속성을 보장할 수 있는 통찰력을 확보하게끔 하는 방향으로 흘러가고 있습니다. Zenius는 서버, 네트워크, 애플리케이션, 데이터베이스 및 각종 로그들의 정보를 시각적으로 통합 모니터링할 수 있는 오버뷰(Overview) 도구와 IT 서비스 레벨에서 인프라들의 연관관계를 정의하고 다양한 조건(Rule)에 따라 서비스 이상유무와 원인분석이 가능한 서비스 맵(Service Map) 도구를 기본적으로 제공하고 있습니다. <사진 설명: Zenius 오버뷰 화면> <사진 설명: Zenius 서비스맵 화면> 앞서 언급했듯이, 클라우드 환경으로 전환함에 따라 통합적 관리 요구는 더욱 높아지고 있습니다. IT 인프라에 대한 통합 뿐만 아니라, AD(Active Directory), SAP 및 AWS, Azure, GCP 등의 다양한 서비스의 주요 지표까지 연계하고 하나의 시스템으로 통합 모니터링하기 위한 노력들이 관찰되고 있습니다. 데이터독(Datadog)의 경우, 500개 이상의 시스템, 애플리케이션 및 서비스들의 지표들을 손쉽게 통합 관리할 수 있다고 돼있습니다. <사진 설명: 데이터독 홈페이지 캡처> 이처럼 IT 서비스의 복잡성과 다양화에 따라 관리해야 될 서비스와 지표들은 점점 늘어나고 있으며, 기업의 현황에 맞게 컴포넌트 기반으로 손쉽게 지표들을 통합할 수 있는 기능과 도구들이 요구되고 있습니다. AI 기반의 예측&자동화 모니터링의 세번째 변화로는 ’AI 기반의 예측과 자동화’입니다. IT 인프라 및 서비스의 주요 지표를 모니터링하는 것도 중요하지만, 축적된 데이터를 기반으로 미래의 상황을 예측 및 이상탐지해 사전에 대비할 수 있는 체계를 갖추는 일은 모니터링 시장에서 중요한 이슈로 자리잡고 있습니다. 현재의 AIOps(AI for IT Operations)를 표방하는 모니터링 기술들은 서버, 네트워크, 애플리케이션, 데이터베이스 등의 주요 지표들을 실시간으로 수집하고, 저장된 데이터를 기반으로 AI 알고리즘 또는 통계기법을 통해 미래데이터를 예측하며 장애 발생가능성을 제공하고 있습니다. 이와 같은 기술을 통해 미래 성능 값을 예측해 IT 인프라의 증설 필요성 등을 판단하고, 장애 예측으로 크리티컬한 문제가 발생되기 전에 미리 조치를 취할 수 있도록 해 효율적인 의사결정을 할 수 있도록 합니다. Zenius도 4차 산업혁명 및 디지털 뉴딜시대가 도래함에 따라 미래예측 기능을 최신 버전에 탑재했으며, 이를 통해 IT운영자가 미래 상황에 유연하고 선제적으로 대응할 수 있도록 합니다. Zenius에서는 서버, 네트워크, 애플리케이션 등 다양한 IT 인프라의 미래 성능 값, 패턴 범위, 이상 범위 등을 예측해 IT 운영자에게 제시합니다. <사진 설명: 인공지능(AI) 기반 미래데이터 예측 화면> 다만, 인공지능 기술을 통해 장애 발생 가능성을 탐지하는 기능 외에, 어디에 문제가 발생됐는지 알려주는 기능은 모니터링 시장에 과제로 남아있고, 이를 제공하기 위한 여러 업체들의 노력이 보이고 있습니다. 이제는 EMS에서 보편적인 것이 됐지만, 모바일 기기를 통해 시∙공간적 제약 없는 모니터링이 이뤄지고 있습니다. 다양한 기종의 스마트폰, 태블릿PC 등을 이용해 운영콘솔(Console) 뿐만 아니라, 회의 등 시간을 잠시 비우더라도 IT 인프라에 대한 연속적인 모니터링이 모바일기기를 통해 가능해졌습니다. <사진 설명: 다양한 기기를 통한 모니터링>
2022.09.05
NMS(네트워크 관리 시스템)에 대해서 꼭 알아야 할 네 가지
NMS(네트워크 관리 시스템)에 대해서 꼭 알아야 할 네 가지
산업 분야를 통틀어서 최근 모든 기업과 공공기관들의 ‘네트워크’ 활용도와 의존도가 빠르게 증가하고 있습니다. 따라서 이제 ‘안정적인 네트워크 관리 = 성공적인 비즈니스 운영’이라고도 할 수 있는데요. 오늘은 네트워크를 안정적으로 유지해서 성공적인 비즈니스 운영을 도와주는, NMS(Network Management System, 네트워크 관리 시스템)에 대해서 자세히 알아보겠습니다. NMS의 등장 배경, 시대별 변화, 그리고 핵심 개념과 실제 사례까지 NMS에 대해서 꼭 알아야 할 네 가지는 무엇일까요? 。。。。。。。。。。。。 │NMS(네트워크 관리 시스템)의 기본 개념과 등장 배경 NMS란 다양한 이기종 네트워크 장치(Network device)를 중앙에서 관리하고 감시할 수 있는 시스템입니다. 즉 전체 네트워크를 중앙 시스템을 통해 모니터링, 진단, 분석, 가용성을 유지하기 위해 만들어진 시스템을 말합니다. NMS의 필요성과 등장 배경은 OSI의 SMFAs(Specific Management Functional Areas)의 다섯 가지 영역(FCAPS)로 정리할 수 있습니다. 장애관리(Fault Management): 경보 감시, 고장 위치의 측정 시험 등 NMS의 첫 번째 관심사는 네트워크의 가용성을 보장하는 것입니다. 네트워크에서 발생하는 장애를 감지·격리·복구하는 과정으로, 네트워크 가동 시간을 최대화하고 서비스 중단을 최소화하는 것이 목적입니다. 구성 관리(Configuration Management): 설비제공, 상태 제어, 설치 지원 등 네트워크의 구성 요소(하드웨어, 소프트웨어, 네트워크 설정 등)를 관리하는 과정으로, 네트워크의 변경 사항을 추적하고 일관된 네트워크 성능과 안정성을 유지하는 데 중요합니다. 계정관리(Accounting Management): 계정(과금) 정보의 수집/저장/제어 등 네트워크 자원의 사용량을 추적하고 기록하는 과정이며, 자원의 할당과 과금에 사용됩니다. 사용량, 사용시간, 서비스 품질, 장비 사용률 등 네트워크 관리 및 운영에 관한 비용 할당 시 필요합니다. 성능 관리(Performance Management): 성능감시/트래픽 관리/품질관리/통계관리 네트워크의 트래픽이 특정 시간에 급증하는 것을 성능 관리 시스템이 감지했을 때, 이 정보를 사용하여 네트워크 용량을 적절히 조정하거나 트래픽을 분산시킬 수 있습니다. 보안 관리(Security Management): 보안/안전/기밀 관리 등 보안 관리 시스템은 사용자의 무단 엑세스 시도를 감지하며 즉시 차단할 수 있는 접근 제어, 인증, 암호화, 키관리 등을 관리하는 것과 관련이 있습니다. 네트워크 인프라의 로그 모니터링을 통해 잠재적인 보안 문제를 사전에 예방할 수 있습니다. 위와 같은 등장 배경과 필요성을 가진 NMS, 시대별로는 어떻게 변해왔는지 살펴보겠습니다. │NMS(네트워크 관리 시스템)의 시대별 변화 1980년대 초부터 현재에 이르기까지 NMS의 시대별 변화를 간략히 살펴보면 다음과 같습니다. 1980년대 ~ 2010년대 초 1980년대에 등장한 초기 NMS는 단순한 모니터링과 제어에 둔 간단한 형태였고, 특정 벤더의 하드웨어에 종속되고 표준화가 제대로 이루어지지 않았었습니다. 1990년대에 들어서 네트워크의 복잡성이 커지면서 NMS의 필요성도 증가했습니다. 이때 보안 기능이 향상된 SNMPv2와 같은 표준 프로토콜이 도입되면서, 다양한 제조사의 장비를 하나의 시스템으로 통합 관리할 수 있게 되었습니다. 또한 네트워크뿐만 아니라 서버까지 같이 관리하기 위한 SNMS(Server and network Management System)와, 더 나아가 EMS(ITIM)도 나오게 되었습니다. 이후 2000년대 초반에 웹 기반 NMS 솔루션이 등장하면서, 사용자 친화적인 인터페이스와 원격 접근 기능 등을 통해 효율적인 네트워크 관리가 가능해졌습니다. 2010년대 중반 ~ 2010년대 후반 NMS는 2010년대 중반부터 등장한 클라우드 컴퓨팅, 빅데이터, 인공지능(AI) 등의 기술과 함께 더욱 고도화되었습니다. 점점 더 다양한 네트워크와 서비스를 통합 관리하며, 자동화된 분석과 의사결정을 지원하게 되었습니다. 최신 동향 최근에는 AI와 머신러닝을 활용하여 예측 분석, 네트워크의 자동 최적화, 사이버 보안 통합 등이 NMS의 중요한 요소로 강조되고 있습니다. 또한 새로운 네트워크 기술인 5G의 도입으로 NMS는 더욱 복잡해지고 다양한 네트워크 환경을 관리하게 되었습니다. 이처럼 NMS는 네트워크 기술의 발전과 산업의 변화에 발맞추어, 지속적이고 빠르게 발전하고 있습니다. 이제 NMS의 구조에 대해서 자세히 알아보겠습니다. │NMS(네트워크 관리 시스템)의 3-Tier 아키텍처 NMS는 3-Tier 아키텍처(수집-저장-표출)로 구성되어 있습니다. 각각 독립된 계층으로 구분되어 있는데요. 특정 부분의 업그레이드가 필요할 때 해당 계층만 영향을 주기 때문에 시스템을 보다 쉽게 관리할 수 있습니다. 다시 정리한다면 NMS Manager에서 SNMP · ICMP · RMON 등 다양한 네트워크 프로토콜을 활용하여, 네트워크 자원의 성능 데이터를 수집합니다. 만약 Managed Device 장비들이 한계치에 도달하거나 장애가 발생했을 경우, 즉각적으로 User Interface를 통해 사용자에게 알립니다. 그렇다면 NMS의 핵심 기능은 무엇일까요? │NMS(네트워크 관리 시스템)의 핵심 기능 네트워크 장애에 대한 신속한 파악과 대응이 반드시 필요한 NMS의 핵심 기능에는 어떤 것들이 있는지 자세히 살펴보겠습니다. 장애 관리 네트워크 인프라의 결함이나 오류를 탐지하고 경고 및 알림을 생성하여, 관리자가 신속하게 대응할 수 있도록 지원합니다. 이를 통해 다운타임을 최소화하고 서비스 지속성을 보장합니다. 예를 들어 네트워크의 라우터가 다운될 경우, NMS는 즉시 관리자에게 경고를 보내 신속한 문제 해결을 도와줍니다. 성능 관리 네트워크 구성 자원인 트래픽 가용성, 응답시간, 사용량, 오류량, 처리 속도 등을 추적하고 최적화합니다. 또한 부하가 발생하지 않도록 문제점을 미리 검출해 안정적인 네트워크 운영이 될 수 있도록 합니다. 예를 들어 특정 애플리케이션이 과도한 대역폭을 소비할 경우, NMS가 문제를 정확히 찾아내서 관리자가 네트워크를 최적화할 수 있도록 돕습니다. ▲ 제니우스(Zenius)를 활용한 성능 모니터링 화면 예시 구성 관리 관리자는 NMS를 통해 분산된 네트워크 장치 구성 프로세스를 자동화하여, 네트워크 전반에 걸쳐 일관성과 정확성을 보장할 수 있습니다. 이러한 핵심 기능을 하는 NMS의 구체적인 활용 사례를 살펴보겠습니다. │NMS(네트워크 관리 시스템)의 활용 사례 IT 분야뿐 아니라 제조업, 금융, 여행, 유통 및 물류 등 전 분야에 걸쳐서 NMS가 사용되고 있습니다. 특히 처리 속도, 가용성, 보안 등이 중요한 금융산업의 경우에 NMS를 통한 안정적인 관리가 중요한데요. 브레인즈컴퍼니의 제니우스(Zenius) EMS를 사용하고 있는 S금융사의 사례를 자세히 살펴보겠습니다. S금융사, Zenius NMS를 통해 완벽하게 네트워크를 관리하게 되다 S금융사는 서버만 800ea, NW 14,000ea 이상의 대규모 인프라를 보유하고 있었습니다. 하지만 Zenius NMS 도입 전까지는 서비스 장애에 영향을 준 네트워크 장애 원인 파악을 위한 장기간 투자하고 있는 상황이었고, 네트워크 운영 현황 데이터 수집과 분석에 많은 시간이 소요되고 있었습니다. 무엇보다 신속한 장애 인지와 처리가 어려워서 큰 고민이 있었는데요. 위 도표에서도 살펴본 것처럼 Zenius NMS 도입을 통해, 이전에 고민과 단점을 극복하고 안정적으로 네트워크 관리를 할 수 있게 되었습니다. 특히 Zenius NMS는 고성능의 Manager를 제공하고 있어 대규모 환경에서도 장애를 신속하게 판단하여, 타사 대비 많은 자원을 효율적으로 관리할 수 있습니다. 。。。。。。。。。。。。 지금까지 살펴본 것처럼 NMS는 네트워크 인프라를 효율적으로 관리하는데 가장 중요한 역할을 합니다. 제니우스(Zenius) NMS처럼 고성능의 Manager를 기반으로 네트워크 상태를 신속하게 판단하며, 유저 중심의 통합 UI를 제공하는 NMS 솔루션을 꼭 선택하시기 바랍니다!
2024.01.31
엣지 컴퓨팅을 위한 CNCF 프로젝트, KubeEdge 활용법
엣지 컴퓨팅을 위한 CNCF 프로젝트, KubeEdge 활용법
최근 몇 년 간 IT 분야는 급속한 발전을 거듭하고 있습니다. 특히 2010년대 중반부터 데이터를 온라인에 저장하는 기존 방식을 넘어서, 보다 진보된 컴퓨팅 기술이 등장하며 클라우드 컴퓨팅이 중요한 역할을 하게 되었습니다. 아마존 웹 서비스(AWS), 마이크로소프트(Microsoft), 구글(Google) 등의 대형 기업들이 클라우드 서비스를 주도해 나갔죠. 하지만 점점 IT 산업이 커지고 사물인터넷(IoT) 기술이 발전하면서 IT 장비에서 생성되는 데이터양이 기하급수적으로 많아졌습니다. IDC의 2018년 자료에 따르면, 2025년에는 전 세계에서 생성되는 데이터가 175ZB(*제타바이트1)에 도달할 예정이라고 합니다. 이처럼 수많은 데이터가 생성되고 중앙 서버에 저장/연산이 될 경우, 서버에 부하가 증가하는 문제가 발생하게 됩니다. *1. 1 ZB = 1021 bytes = 1,000,000,000,000,000,000,000 bytes 이를 해결하기 위해 2020년부터 중앙 서버에만 저장하지 않고, 클라우드 하위개념인 '클라우드렛'을 통해 데이터를 분산 처리하는 새로운 기술이 등장했는데요. 그 기술이 바로 엣지 컴퓨팅(Edge Computing)입니다. │엣지 컴퓨팅(Edge Computing)이란? 엣지 컴퓨팅은 데이터를 중앙 집중형 데이터 센터나 클라우드 대신, 데이터가 생성되는 가장 가까운 곳에서 처리하는 기술입니다. 쉽게 말해 중앙 서버가 아닌 데이터가 발생하는 '엣지(가장자리)'에서 직접 처리하는 것을 의미하죠. 엣지 컴퓨팅의 목적은 데이터 처리 응답 지연을 없애고, 실시간 성능을 개선하는 것입니다. 따라서 엣지 컴퓨팅의 가장 큰 특징이 '분산 처리 기능'이기도 합니다. 즉 가까운 곳에서 데이터를 처리하여, 부하를 분산하고, 통신 지역을 최소화하는 것이 엣지 컴퓨팅의 주목적입니다. │Edge Computing 필요성 그렇다면 엣지 컴퓨팅은 왜 점점 중요해지고 있을까요? 앞에서 언급했던 것처럼, IoT 시대가 도래하면서 다양한 디바이스에서 처리하는 데이터의 양이 폭발적으로 증가하고 있습니다. 이에 따라 요구되는 처리 속도와 응답 속도도 높아지고 있죠. 방대한 양의 데이터를 처리하기 위해서는 대규모 데이터 센터가 필요하지만, 각 위치에 데이터 센터를 두는 것보다 한 곳에서 중앙 집중식으로 처리하는 것이 더 효율적입니다. 이것이 클라우드 컴퓨팅이 대중화된 이유 중 하나입니다. 그러나 인터넷을 통해 클라우드로 데이터를 전송하고 처리한 후 반환할 때, 약간의 시간 지연이 발생합니다. 물론 로봇과 산업 장비의 센서 기술은 나날이 발전하고 있어, 어느 순간에도 상황을 정확하게 파악할 수 있게 되었습니다. 하지만 데이터 처리와 반응 사이에 시간 지연이 발생하면 정교한 *센싱 기술2 은 아직 어려운 편이죠. *2. 센싱 기술: 다양한 센서를 활용해 물리적 환경으로부터 데이터를 감지하고 수집하는 기술 이처럼 정밀하고 복잡한 동작을 수행하는 디바이스에는 고정밀 IoT가 필요한데요. 이를 위해서는 최대한 실시간에 가깝게 정보와 데이터를 주고받아야 하는데, 엣지 컴퓨팅가 이를 가능하게 합니다. 따라서 엣지 컴퓨팅은 IoT가 다음 단계로 나아가기 위해 필요한 기술로 주목받고 있죠. │Edge Computing 장점 엣지 컴퓨팅의 구체적인 이점은 무엇일까요? 엣지 컴퓨팅을 활용하면 얻을 수 있는 이점을 살펴보겠습니다. • 네트워크 트래픽 감소: 엣지 컴퓨팅은 데이터를 중앙 클라우드 서버로 보내지 않고 엣지(사용자 근처 단말기)에서 직접 처리하기 때문에, 네트워크 트래픽이 큰 폭으로 감소합니다. • 빠른 데이터 처리 응답시간: 데이터를 단말기에서 바로 처리하므로, 데이터 처리 응답 시간이 매우 빠릅니다. 실시간 응답이 중요한 애플리케이션에서는 큰 이점이죠. • 향상된 보안성: 개인정보 등 중요한 데이터를 중앙 데이터 센터로 전송하지 않아도 되므로 보안성이 높아집니다. 데이터가 로컬에서 처리되기 때문에 데이터 유출 위험이 줄어듭니다. • 장애 포인트 감소: 서버에 장애가 발생할 경우, 전체 서비스로 장애가 확대되는 클라우드 컴퓨팅과 달리 엣지 컴퓨팅은 개별 엣지의 장애가 다른 엣지로 전파되지 않게 합니다. 따라서 전체 시스템의 안정성이 향상되고 장애 포인트가 감소됩니다. │Edge Computing 활용 분야 엣지 컴퓨팅 활용분야는 다양하지만, 대표적인 엣지 컴퓨팅 적용사례로 스마트팩토리가 있습니다. 스마트 팩토리는 IoT, AI를 활용해 공정을 자동화하고 최적화하는 공장을 의미하는데요. 스마트팩토리에서는 제품 생산 과정에서 발생하는 모든 데이터를 중앙 클라우드 서버에 저장하면, 서버에 부하가 걸리기 쉽습니다. 이를 해결하기 위해 단순히 매일 반복되는 프로세스는 근처 엣지서버에 저장하고 데이터 연산 작업을 진행하죠. 반면 복잡하고 자주 처리되지 않는 데이터는 중앙 클라우드 서버에 저장합니다. 이렇게 하면 AI가 기기를 운영할 때 실시간 데이터 처리가 가능하여 지연 시간을 줄이고 효율성을 높일 수 있습니다. 여기서 엣지 서버는 지사 개념으로, 중앙 클라우드 서버는 본사 개념으로 이해할 수 있습니다. 엣지 컴퓨팅 활용 분야는 계속해서 확대되고 있습니다. 스마트팩토리 외에도 에너지 스트리밍, 게임, 헬스케어, 농업, 데이터센터, 자율주행, 스마트 시티 등 대규모 산업분야에 많이 사용되고 있습니다. │Edge Computing 도전 과제 하지만 엣지 컴퓨팅 기술에는 여러 도전과제가 있는데요, 대표적으로 애플리케이션 배포관리가 있습니다. 다양한 엣지 환경에서 애플리케이션을 배포하고 관리하는 것은, 생각만 해도 복잡한 프로세스이기 때문이죠. 이때 애플리케이션 버전 관리를 일관되게 하고 다양한 엣지 장치와 위치에서 호환성을 유지하려면, 효율적인 오케스트레이션 배포 시스템이 필요합니다. 이러한 과제를 해결하기 위해 여러 솔루션들이 연구되고 있는데요. 그중 하나가 쿠버네티스(Kubernetes, K8s)입니다. 쿠버네티스는 컨테이너화된 애플리케이션을 자동 배포하고, 확장하며, 관리하기 위한 오픈 소스 플랫폼입니다. 이때 쿠버네티스 기술에 + Edge를 접목한 것이 바로 KubeEdge입니다. 좀 더 자세히 알아볼까요? │KubeEdge란? KubeEdge는 쿠버네티스를 확장하여 엣지 컴퓨팅 환경을 지원하는 오픈 소스 플랫폼입니다. 엣지 컴퓨팅의 잠재력을 최대한 활용할 수 있는 플랫폼이죠. KubeEdge는 클라우드 컴퓨팅과 엣지 컴퓨팅의 경계를 허물기 위해 설계되었는데요. CNCF 재단에서 엣지 컴퓨팅 커뮤니티 구성원에 의해 개발되었고, 2018년 11월 상하이 KubeCon에서 처음 발표되었습니다. 쿠버네티스 기반으로 설계된 KubeEdge는, 2019년 3월에 첫 릴리즈 이후로 점차 안정화되고 있습니다. │KubeEdge 주요 기능 KubeEdge는 쿠버네티스를 사용해 클라우드와 엣지 리소스를 일관되게 관리할 수 있습니다. 또한 클라우드에서 운영하던 애플리케이션과 서비스를 동일한 방식으로 다룰 수 있죠. 이 밖에도 KubeEdge 주요 기능은 다음과 같습니다. • 엣지 클러스터 관리: KubeEdge는 엣지 환경에서도 쿠버네티스 클러스터를 효율적으로 관리할 수 있습니다. • 데이터 처리: 엣지에서 생성된 데이터를 로컬에서 처리하여, 네트워크 대역폭을 절약하고 응답 시간을 단축합니다. • 애플리케이션 오케스트레이션: 클라우드와 유사한 방식으로 엣지 애플리케이션을 배포하고 관리할 수 있습니다. • 보안: 엣지와 클라우드 간의 안전한 통신을 보장하여, 데이터 보안을 강화합니다. │KubeEdge 주요특징 KubeEdge 기능이 좀 더 원활하게 작업을 할 수 있도록 도와주는 주요 특징이 있는데요. 자세히 살펴보겠습니다. • 분산 아키텍처: KubeEdge는 클라우드와 엣지를 각각 포함하는 분산된 환경을 지원합니다. 클라우드에는 Kube-apiserver가 있으며, 엣지에는 실제 IoT 디바이스가 있습니다. 이를 통해 중앙 집중식 관리와 로컬 처리를 모두 가능하게 합니다. • 쿠버네티스 API 호환성: KubeEdge는 쿠버네티스 API와 호환됩니다. 이를 통해 기존에 쿠버네티스에 익숙한 사용자는 엣지 컴퓨팅 환경을 쉽게 관리할 수 있죠. • 리소스 제약 환경 지원: 엣지 디바이스는 일반적으로 제한된 컴퓨팅 자원을 가지고 있습니다. KubeEdge는 이러한 환경을 고려하여 설계되었기 때문에, 리소스가 제한된 환경에서도 효율적으로 작동합니다. • 오프라인 작동 지원: 엣지 노드는 네트워크에 연결되어 있지 않더라도, 일정 부분을 독립적으로 작동할 수 있습니다. 이는 인터넷 연결이 불안정한 환경에서 매우 유용합니다. • 경량화된 엣지 컴포넌트: KubeEdge는 엣지 측에 'EdgeCore'라는 경량화된 컴포넌트를 사용합니다. EdgeCore는 IoT 디바이스와의 통신/관리를 담당합니다. • 효율적인 통신: 클라우드와 엣지 사이의 통신은 *MQTT3와 같은 프로토콜을 사용하여 효율적으로 이루어집니다. 이는 데이터의 신속한 전송과 처리를 가능하게 합니다. *3. MQTT: Message Queuing Telementry Transport의 약자로 경량 메시지 전송 프로토콜 │KubeEdge 구성도 KubeEdge 구성도를 살펴보면 크게 Cloud, Edge, Device로 나누어져 있는데요. 각각 구성요소에 대한 설명은 아래와 같습니다. • Edged: Edge에서 컨테이너화된 애플리케이션을 관리합니다. 이는 엣지 디바이스에서 애플리케이션을 배포하고 실행하는 역할을 합니다. • EdgeHub: Edge에 위치한 통신 인터페이스 모듈로, 엣지 컴퓨팅을 위해 클라우드 서비스와 상호 작용하는 *웹 소켓4 클라이언트입니다. 클라우드와 실시간 데이터 통신을 담당합니다. • CloudHub: 클라우드에서의 통신 인터페이스 모듈입니다. 클라우드 측의 변경 사항을 감시하고, EdgeHub에 메시지를 캐싱하고 보내는 역할을 담당하는 웹 소켓 서버입니다. • Edge Controller: Edge 노드를 관리하는 모듈입니다. 이 모듈은 데이터를 특정 엣지 노드로 전달될 수 있도록, 엣지 노드와 포드 *메타데이터5를 관리합니다. 즉 Edge Controller는 쿠버네티스 컨트롤러 역할을 확장하여, 엣지 컴퓨팅 환경에서도 효율적인 노드 관리와 데이터 흐름을 가능하게 합니다. • EventBus: MQTT를 사용하여 내부 엣지 통신을 처리하는 모듈입니다. 이는 MQTT 서버와 상호 작용하여 다른 구성 요소에 게시와 구독 기능을 제공하는 MQTT 클라이언트 역할을 합니다. • Device Twin: 장치 메타 데이터를 처리하는 장치용 소프트웨어 미러입니다. 이 모듈은 장치 상태를 처리하고 이를 클라우드에 동기화하는 데 도움을 줍니다. 또한 경량 데이터베이스(SQLite)에 연결되어, 애플리케이션에 대한 쿼리 인터페이스도 제공합니다. • MetaManager: Edge 노드에서 메타데이터를 관리하는 모듈입니다. 이는 Edged와 EdgeHub 사이의 메세지 프로세서로, 경량 데이터베이스(SQLite)와의 메타데이터를 저장/검색하는 역할을 담당합니다. *4. 웹 소켓: 웹 브라우저와 서버 간의 실시간 양방향 통신을 가능하게 하는 프로토콜 *5. 포드 메타데이터: 파일 원본 데이터 외에 추가적인 속성이나 정보를 포함하는 메타데이터 이러한 각 구성 요소는 엣지와 클라우드 간의 원활한 통신, 애플리케이션 배포, 데이터 관리 등을 담당하여 엣지 컴퓨팅의 성능과 효율성을 극대화합니다. 이를 통해 실시간 데이터 처리와 안정적인 시스템 운영이 가능하죠. │엣지 컴퓨팅과 KubeEdge 미래 전망 그렇다면 엣지컴퓨팅과 KubeEdge 미래 전망은 어떨까요? 엣지 컴퓨팅과 KubeEdge의 결합은 데이터 생성 지점에서 즉시 처리를 가능하게 하여 지연 시간을 줄이고, 클라우드 네이티브 애플리케이션을 엣지 환경에서도 원활하게 실행할 수 있도록 지원합니다. 따라서 이러한 기술의 결합은 5g와 함께 자율주행차, 스마트 시티 등 다양한 분야에서 혁신을 이끌며, 향후 지속적인 성장이 예상됩니다. IDC에 따르면, 전 세계 엣지 컴퓨팅 지출은 2023년 2080억 달러에서 2026년까지 연평균 13.1%씩 성장하여 3170억 달러에 이를 것으로 예상됩니다. 이러한 성장은 디지털 전환 이니셔티브의 중요한 요소로 엣지 컴퓨팅의 역할이 확대되면서 더욱 가속화될 예정입니다. 국내에서도 엣지 컴퓨팅과 관련한 기술 발전과 시장 확장이 활발히 이루어지고 있습니다. 정부가 민간사업에게 5G 주파수를 할당하면서 이음 5G(5G 특화망) 서비스가 시작되었고, 이를 통해 자율 주행 로봇 등의 엣지 컴퓨팅 관련 서비스가 확대되고 있습니다. 결론적으로 엣지 컴퓨팅과 KubeEdge의 결합은, 미래의 디지털 트랜스 포메이션을 가속화할 핵심 기술로 자리 잡을 것으로 전망하고 있습니다. 이들의 발전은 다양한 산업 분야에서 새로운 비즈니스 모델과 기회를 창출하여, 우리의 생활 방식을 더욱 안전하고 편리하게 만들어 줄 것입니다. 📚참고 자료 • MichaelShirer, "New IDC Spending Guide Forecasts Edge Computing Investments Will Reach $232 Billion in 2024", IDC • GordonHaff, "Edge computing: 4 trends for 2023", enterprisersproject • ShirleyStark, "Future Of Edge Computing: Top 6 Trends 2023", justtotaltech • TonyFyler, "Edge computing trends in 2023", techhq • Bluefriday, "KubeEdge concept", tistory • Mansoor Ahmed, "Kubernetes Native Edge Computing Framework, KubeEdge", linkedin • "TDK의 고급 HDD 헤드 기술은 사회의 디지털 변혁을 가속화합니다", shunlongwei • 양대규기자, 엣지에서 AI와 시각적 처리가 증가하는 이유, aitimes
2024.07.26
다음 슬라이드 보기