반복영역 건너뛰기
주메뉴 바로가기
본문 바로가기
제품/서비스
EMS Solution
Features
클라우드 관리
AI 인공지능
서버관리
데이터베이스 관리
네트워크 관리
트래픽 관리
설비 IoT 관리
무선 AP 관리
교환기 관리
운영자동화
실시간 관리
백업 관리
APM Solution
애플리케이션 관리
URL 관리
ITSM Solution
서비스데스크
IT 서비스 관리
Big Data Solution
SIEM
Dashboard
대시보드
Consulting Service
컨설팅 서비스
고객
레퍼런스
고객FAQ
문의하기
가격
자료실
카탈로그
사용자매뉴얼
회사소개
비전·미션
연혁
2016~현재
2000~2015
인증서·수상
투자정보
재무정보
전자공고
IR자료
새소식
공고
보도자료
오시는 길
채용
피플
컬처
공고
FAQ
블로그
열기
메인 페이지로 이동
블로그
기술이야기
블로그
최신이야기
사람이야기
회사이야기
기술이야기
다양한이야기
기술이야기
검색
기술이야기
SIEM을 도입해야 하는 5가지 이유
기술이야기
SIEM을 도입해야 하는 5가지 이유
IT 산업의 발전에 따라 다양한 장비와 시스템에서 매일 엄청난 양의 로그가 만들어지고 있습니다. 보안 장비, 서버, 미들웨어 등에서 생성되는 로그들이 대표적입니다. 이러한 로그들을 모두 취합하여 관리하게 되면, 1년 동안 저장되는 데이터는 테라바이트(TB) 단위의 디스크 용량이 필요한데요. 이는 인프라 관리에 있어 큰 부담이 될 수 있겠죠. 이때 통합 로그 관리 시스템인 SIEM(Security Information and Event Management)이 해결책이 될 수 있습니다. 그렇다면 SIEM은 무엇일까요? SIEM은 보안 정보 관리(SIM, Security Information Management)와 보안 이벤트 관리(SEM, Security Event Management)의 이점을 결합한 로그 관리 도구입니다. 즉 수집한 로그를 통해 정보를 분석하여 보안상 위협이 되는 이벤트를 실시간으로 감지하는 솔루션이라고 할 수 있죠. 그래서 이번 시간에는 SIEM이 왜 필요한지, 그리고 어떤 특장점이 있는지 알아보도록 하겠습니다. │SIEM, 왜 필요할까? SIEM이 필요한 가장 큰 이유는 빅데이터 처리와 보안적 측면에서 설명할 수 있습니다. 빅데이터 로그는 보안 사고가 발생한 근거를 찾아내는 중요한 증거 자료로 활용됩니다. 예를 들어 대형 온라인 쇼핑몰에서는 수많은 거래가 이루어지며 해커의 침입 시도가 발생할 수 있는데요. 이러한 기록이나 비정상적인 접근을 실시간으로 감지하여 문제가 생기기 전에 미리 대응할 수 있습니다. 이처럼 보안 위협에 효과적으로 대응하려면, 수집한 로그 데이터에 대한 체계적인 분석이 필요합니다. 관리되지 않은 로그는 IT 시스템의 장애나 문제 발생 시 원인을 찾아내기 어렵기 때문이죠. 따라서 로그 분석을 위해 로그를 정규화하여 저장하고, 효율적으로 관리하기 위한 로그 압축 보관 툴이 필요합니다. 또한 시스템 로그와 애플리케이션 로그 등 각 IT 인프라에서 발생하는 수많은 로그들은 빅데이터의 영역에 속합니다. 따라서 이를 중앙집중적으로 처리하여 효과적으로 분석하고 관리하는 도구가 필요하죠. │SIEM의 주요구성 SIEM은 네트워크 범위의 로그를 수집하고, 저장하며, 분석하는 기능을 갖고 있는데요. SIEM의 구성도 그림을 통해 좀 더 자세히 살펴보겠습니다. 로그 수집 SIEM은 서버, 네트워크, 보안장비, 클라우드 등 다양한 IT 인프라에서 발생하는 로그 데이터를 Syslog나 SNMP 등을 이용해 로그와 이벤트를 모아 Collector에 수집합니다. 이를 위해 직접 대상 장비에 Agent/Agentless 방식을 활용하거나, 클라우드의 경우 API 연동을 통해 다양한 방식으로 로그를 수집하죠. 실시간으로 발생되는 로그 수집은 물론, 방화벽/IDS/IPS 등 다양한 보안 장비에 대한 로그 데이터 수집이 필요합니다. 로그 저장 로그 수집뿐만 아니라 로그 저장 역시 중요합니다. 주로 ELK Stack을 활용하거나 수집 로그에 대한 분산 처리/저장 엔진을 활용하여, 로그를 저장하게 되는데요. 주로 관계형 데이터베이스에 자제적으로 저장하는 경우가 많습니다. 인덱싱 속도와 효율을 높이기 위해 ELK Stack을 활용하여, 로그를 저장하는 것 역시 좋은 대안이 될 수 있죠. 로그 분석 로그를 수집하고 저장한 다음 단계는 로그를 분석하는 것입니다. 이때 중요한 과정이 '파싱(Parsing)'입니다. 파싱은 비정형 로그 데이터를 쿼리가 가능한 구조화된 형태로 변환하는 과정입니다. 쉽게 말해, 파싱은 비정형 로그 데이터를 자르고 인덱스를 추가하여(key-value 형식으로) 보다 쉽게 식별할 수 있습니다. 이처럼 파싱을 통해 로그를 유형별로 분류하고, 정규화 및 표준화 작업을 거쳐, 분석에 필요한 정제된 로그를 추출합니다. 이렇나 정제된 로그는 분석 과정에서 매우 유용하게 사용됩니다. 시각화 및 리포팅 수집된 로그의 핵심 지표와 요약 이벤트를 설정하여, 시각화해서 볼 수 있습니다. 또한 사용자 정의 기반의 대시보드를 통해, 다양한 컴포넌트를 활용한 로그 데이터의 시각화와 리포팅 기능 역시 제공해야 합니다. │SIEM 도입 시 얻을 수 있는 5가지 앞에서도 SIEM에 대한 이점을 잠깐 언급했지만, 사실 이밖에도 여러 특장점이 있는데요. 그 중 대표적으로 5가지를 소개해 드릴게요. 첫째, 보안 수준의 강화 기존의 ESM(Enterprise Security Management)과는 다르게 SIEM은, 많은 양의 로그 데이터를 상관 분석하여 보안 위협을 찾아낼 수 있습니다. 기업 내 정보시스템의 보안 이벤트를 관리해서, 내부와 외부를 가리지 않고 기업 전반의 통합 보안 관리가 가능해지죠. 둘째, 통합 로그 관리 [그림] Zenius SIEM : 요약뷰 다양한 레거시 인프라와 클라우드에서 발생하는 로그를 하나의 플랫폼으로 일원화하여, 로그 관리가 훨씬 쉬워집니다. 장기간 데이터를 저장하고 모든 인프라에서 발생하는 로그를 파싱하여 관리하면, 관리 포인트를 한 곳으로 모을 수 있어 기업에서는 비용과 시간을 크게 절약할 수 있습니다. 셋째, 인덱싱을 통한 로그 검색 [그림] Zenius SIEM : 호스트 및 로그유형 트리 검색 기능 호스트 및 로그 유형 별로 검색어와 조건을 설정해서 로그를 검색할 수 있습니다. 특정 시간대나 특정 검색어를 통해, 대용량의 로그 중 일부만을 추출하여 분석할 수 있어 로그 분석이 훨씬 용이해집니다. 넷째, 보안 감시 설정 및 상관 분석 [그림] Zenius SIEM : 상관분석 감시설정 수집된 다양한 로그들의 상관관계를 분석하면 더 가치 있고 유의미한 이벤트를 확인할 수 있습니다. 예를 들어 방화벽 접속 로그에서 유해 IP나 등록되지 않은 IP로의 접근을 이벤트로 설정하면, 유해 IP를 실시간으로 확인할 수 있습니다. 또한 보안 위협 상황과 거래 이상 탐지 등 시나리오 기반으로 이벤트를 정의하고 자동으로 탐지할 수 있는 상관 분석 기능도 사용할 수 있습니다. 다섯째, 컴플라이언스 준수를 위한 측면 최근 몇 년간 기업들이 고객의 개인정보를 더 잘 보호하도록 법이 강화되었습니다. 특히 해킹과 개인정보 침해 사건이 늘어나면서 기업들이 보안을 철저히 해야 할 필요성이 커졌는데요. SIEM을 이용하면 이러한 보안 요구사항을 충족하는 데 큰 도움이 됩니다. KISA에서 권고하는 정보보호 및 개인정보보호 관리체계(ISMS-P)에서는 서버, 보안 시스템 등에 대한 사용자 접속 기록과 시스템 로그를 6개월 이상 저장하고, 이를 안전하게 관리해야 한다고 명시하고 있습니다. 또한 개인정보보호법과 정보통신망법에 따르면 로그는 1년 이상 보관해야 하고, 위조나 변조를 막기 위해 물리적인 서버에 저장하고 정기적으로 백업을 해야 하죠. 하지만 SIEM 시스템을 도입하면 이러한 법적 요구사항을 쉽게 준수할 수 있습니다. 따라서, 기업은 고객의 개인정보를 안전하게 보호하고, 침해사고 발생 시 빠르게 대응할 수 있습니다. 이번 시간에는 SIEM이 왜 중요하고, 어떤 특장점이 있는지 자세히 알아보았습니다. 요즘 기업에서는 보안 관련 요소들을 각각 관리하는 것이 쉽지 않습니다. 특히 규모가 큰 기업이나 보안이 중요한 공공기관의 경우에는 통합 관리 시스템이 꼭 필요하죠. 따라서, Zenius SIEM과 같은 솔루션을 통해 로그 관리를 안정적이고 효율적으로 해보는 건 어떨까요? 🔍더보기 Zenius SIEM으로 로그 관리하기
2024.07.29
기술이야기
Fluentd vs Logstash vs Filebeat, 어떤 로그 수집기를 선택할까?
기술이야기
Fluentd vs Logstash vs Filebeat, 어떤 로그 수집기를 선택할까?
이전 시간에는 Fluentd라는 로그 수집기에 대해 자세히 알아보았습니다(이전 글 보기). 이와 더불어 Logstash, Filebeat가 로그 데이터를 수집하고 처리하는 도구로 많이 쓰이고 있는데요. 이번 시간에는 이 세 가지 도구가 어떤 점에서 비슷하고, 어떤 점에서 다른지 살펴보겠습니다. │Fluentd vs Logstash, Filebeat 로그 데이터 수집 및 처리 Fluentd, Logstash, Filebeat는 모두 다양한 소스에서 로그 데이터를 수집하고 처리하는데요. 파일, 데이터베이스, 네트워크 프로토콜, 메세지 큐 등 다양한 입력 소스를 지원합니다. 수집된 로그 데이터를 분석하기 좋은 형태로 변환하고 필터링해주죠. 처리된 로그 데이터는 Elasticsearch, Kafka, HDFS, S3 같은 다양한 저장소와 분석 시스템으로 전송할 수 있습니다. ▷ Fluentd는 JSON 형식을 주로 사용해서 데이터를 처리합니다. 다양한 소스에서 데이터를 수집하고 변환할 수 있으며, 특히 쿠버네티스 같은 클라우드 네이티브 환경에서 최적화되어 있습니다. 또한 다양한 컨테이너와 마이크로서비스로부터 로그를 모아서 중앙에서 관리하죠. ▷ Logstash는 Elashtic Stack에서 로그 데이터를 수집, 변환, 전송하는데 주로 사용됩니다. 복잡한 데이터 변환과 필터링을 위한 강력한 기능을 제공하고 다양한형식으로 로그 데이터를 변환할 수 있죠. Elasticsearch와 Kibana와의 통합 덕분에 강력한 검색과 시각화 기능을 사용할 수 있습니다. ▷ Filebeat는 경량의 로그 수집기로 설계되어 있고, 주로 로그 파일을 모니터링하고 수집하는 데 최적화되어 있습니다. 서버 리소스를 거의 사용하지 않으면서도 효율적으로 로그 데이터를 수집할 수 있죠. 주로 Logstash나 Elasticsearch로 데이터를 전송해서 중앙에서 분석할 수 있게 해줍니다. 플러그인 시스템 Fluentd와 Logstash는 플러그인 시스템을 통해 기능을 확장할 수 있는데요. 다양한 입력, 필터, 출력, 플러그인을 제공해서 필요에 따라 시스템을 유연하게 구성할 수 있습니다. ▷ Fluentd는 500개 이상의 플러그인을 통해 다양한 데이터 소스와 목적지에 대한 통합을 지원합니다. 그래서 사용자는 다양한 요구에 맞춰 시스템을 쉽게 구성할 수 있죠. ▷ Logstash도 200개 이상의 플러그인을 통해, 다양한 입력 소스와 출력 목적지에 맞춤형 데이터 파이프라인을 구성할 수 있는데요. 복잡한 데이터 처리와 분석 요구 사항을 충족할 수 있습니다. ▷ Filebeat는 모듈 기반 아키텍처를 통해 특정 로그 파일 형식에 맞춘 구성을 제공합니다. 설정이 간단하고 빠르게 배포할 수 있는 것이 장점이죠. 플러그인 대신 모듈을 통해 다양한 로그 형식에 대응할 수 있습니다. 실시간 데이터 처리 세 도구 모두 실시간으로 로그 데이터를 수집하고 처리할 수 있습니다. 이는 급변하는 환경에서 로그 데이터를 즉시 분석하고 대응하는 데 매우 중요하죠. ▷ Fluentd와 Logstash는 실시간으로 수집된 데이터를 변환하고 필터링해서, 필요한 데이터를 즉시 사용할 수 있는 형태로 만들어줍니다. 이를 통해 실시간 모니터링 시스템에서 발생하는 로그 데이터를 빠르게 처리하고 문제를 신속히 해결할 수 있습니다. ▷ Filebeat는 경량화된 설계 덕분에 실시간 로그 수집에 최적화되어 있는데요. 서버 리소스를 최소화하면서도 안정적으로 데이터를 전송할 수 있습니다. 어떤 로그 수집기를 선택하면 좋을까요? 그렇다면 Fluentd, Logstash, Filebeat 중 우리 기업에 맞는 로그 수집기는 무엇인지 핵심만 정리한다면 다음과 같습니다. Fluentd ✔️ 다양한 소스에서 데이터를 수집하고 통합하는 경우 ✔️ 특히 클라우드 네이티브 환경에서 운영되는 경우 ✔️ 유연성과 확장성이 중요하고, 다양한 플러그인을 통해 쉽게 확장할 수 있는 도구가 필요한 경우 ✔️ 쿠버네티스와 같은 컨테이너화된 환경에서 로그를 수집하는 경우 Logstash ✔️ Elastic Stack을 사용해서 강력한 검색 및 시각화 기능을 필요한 경우 ✔️ 복잡한 데이터 변환과 필터링이 필요한 환경에서 로그 데이터를 처리하는 경우 ✔️ 다양한 입력 소스와 출력 목적지에 맞춤형 데이터 파이프라인을 구성하는 경우 Filebeat ✔️ 경량의 로그 수집기가 필요한 경우 ✔️ 서버 리소스를 최소화하면서 로그 데이터를 수집하고 전송해야 하는 경우 ✔️ 설치와 설정이 간단하고 빠르게 배포할 수 있는 도구가 필요한 경우 ✔️ 주로 로그 파일을 모니터링하고 수집하는 작업이 주된 경우 이처럼 각 도구는 기업 또는 사용자의 환경과 요구 사항에 맞춰, 적절한 도구를 선택하는 것이 중요한데요. 브레인즈컴퍼니의 경우는 높은 성능과 유연한 로그 데이처 처리를 위해 Logstash와 Filebeat를 사용하고 있습니다. 이번 시간에 살펴본 내용처럼 Fluentd와 Logstash, Filebeat는 모두 로그 데이터를 효과적으로 수집하는 강력한 도구입니다. 하지만 로그는 수집에서 끝나는 것이 아닌, 어떻게 안정적으로 관리하느냐도 중요합니다. 이때 로그를 수집부터 관리까지 할 수 있는 통합로그관리가 필요한데요. Zenius SIEM과 같은 솔루션을 통해 로그를 수집부터 관리까지 할 수 있고, 보안 위협에 대비하는 것이 정말 중요합니다. 데이터의 중요성이 더욱더 커지는 상황에서, 효과적인 로그 수집 및 관리를 통해 비즈니스 경쟁력을 높이시길 바랍니다. 🔍더보기 Zenius SIEM 더 자세히 보기 📝함께 읽으면 더 좋아요 • 로그 수집기 Fluentd에 대해 알아야 할 5가지!
2024.07.28
기술이야기
[통합로그관리] Filebeat에서 안정적으로 하드웨어 자원 사용하기
기술이야기
[통합로그관리] Filebeat에서 안정적으로 하드웨어 자원 사용하기
Filebeat는 Elastic Stack에서 사용하는 경량(light-weight) 데이터 수집기로 logstash 대비 상대적으로 리소스(CPU와 RAM)를 상당히 적게 소모한다는 장점이 있습니다. 또, Filebeat는 간단한 필터 기능도 제공합니다. 하지만 말 그대로 간단한 필터 기능이라 한번에 대용량의 파일을 관리해야 하는 경우 호스트 서버에 부담이 갈 정도로 많은 리소스를 사용할 수 있습니다. 따라서 브레인즈컴퍼니가 운영하는 통합로그관리 에이전트는 호스트의 서버 환경에 따라 filebeat 에이전트의 설정 파일을 수정해서 안정성을 제공하고 있습니다. 본 내용은 Filebeat 리소스 점유율이 높을 때 트러블슈팅 관련 설정 수정사항입니다. 수정에 필요한 기본 파일 위치 linux : /etc/filebeat/filebeat.yml docker: /usr/share/filebeat/filebeat.yml filebeat 프로세스 메모리 확인하는 방법 top -d 1 | egrep "PID|filebeat" 수정에 앞서 filebeat의 메인 컴포넌트인 harvester의 개념을 간략하게 설명하겠습니다. 하나의 harvester는 하나의 파일을 읽어드립니다. harvester가 실행 중인 경우 파일을 한 줄씩 읽습니다. 각 파일 당 하나의 harvester가 실행됩니다. 상단의 이미지를 보면 filebeat의 컴포넌트인 input과 harvester가 보입니다. 또한 filebeat이 harvester를 관리하며 어느 파일을 읽을지 관리하는걸 알 수 있습니다. harvester가 실행 중인 경우 파일 설명자(File Descriptor) 열린 상태로 유지됩니다. 이는 파일이 삭제되거나 파일명이 변경된다 하더라도 파일을 계속 읽게 해줍니다. 하지만 파일 설명자는 harvester가 닫힐 때까지 디스크 공간을 예약합니다. 1. filebeat.inputs: 2. - type: filestream 3. id: my-filestream-id 4. paths: 5. - /var/log/system.log 6. - /var/log/wifi.log 7. - type: filestream 8. id: apache-filestream-id 9. paths: 10. - "/var/log/apache2/*" 11. fields: 12. apache: true 13. fields_under_root: true <filebeat에서 제공하는 input example> 1. scan_frequency 파일비트가 설정된 filebeat_inputs의 path에 있는 파일들의 갱신 여부를 체크하는 주기입니다. 너무 길게 설정하면 한번에 많은 파일들을 수집하게 됩니다. 반대로 너무 짧게 설정하면 스캔을 너무 잦게 해서 CPU점유율이 올라갑니다. 적당한 조절이 필요합니다. 기본값은 10초입니다. Scan_frequeny가 동작하는 방식은 아래와 같습니다. harvester 읽기 종료 또는 파일 삭제 → scan_frequency 만큼 대기 → 파일 갱신 확인 → 파일 갱신 시 새 harvester 시작 2. backoff Backoff 옵션은 파일비트가 얼마나 더 적극적으로 크롤링 하는지 지정합니다. 기본값은 1인데 1일 경우 새 줄이 추가될 경우 1초마다 확인한다는 의미입니다. Backoff가 동작하는 방식은 아래와 같습니다. harvester 읽기 종료 또는 파일 삭제 → scan_frequency만큼 대기 → 파일 갱신 확인 → 파일 갱신 시 새 harvester 시작 → 파일 갱신 시 Backoff 시간 마다 다시 확인 3. max_procs 파일비트에서 동시에 사용 가능한 최대의 cpu코어의 숫자를 설정합니다. 예를 들어32 CPU코어 시스템에서 max_procs를 1로 설정한다면 cpu사용률은 3.2%(1/32)를 넘지 않습니다. max_procs 설정돼 있으면 harvester가 아무리 많이 생성돼도 cpu의 코어 수만큼 CPU를 점유합니다. 4. harvester_limit harvester의 수가 OS가 감당할 수 있는 파일 핸들러 개수를 초과할 때 사용합니다. 한 input마다 설정되므로 inputs이 5개 선언돼 있으면 해당 input 컴퍼넌트의 harvester 개수 최대치는 5개입니다. 기본값은 0인데, 0일 경우 harvester가 무제한으로 생성 가능합니다. 리소스 관리 최적화에도 유용한데 예를 들어, input1이 input2보다 파일 개수가 3배 많고 중요성이 높을 때 3배 높은 값을 설정하는 것이 좋습니다. 5. close_eof harvester에 의해 파일이 수집되고 있을 때, EOF(End of File)에 도달하는 즉시 파일을 닫습니다. 파일이 계속 갱신된다면 데이터가 유실될 수 있는 여지가 있습니다. [참조] https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-input-log.html
2022.11.17
기술이야기
통합로그관리가 필요한 3가지 이유
기술이야기
통합로그관리가 필요한 3가지 이유
로그는 IT 인프라에서 발생하는 모든 상황들을 기록한 데이터입니다. 쉽게 말해 사용자가 어떤 루트로 사이트에 접속했고, 접속한 시점부터 어떤 행동을 취했는지가 모두 기록으로 남게 되는데, 이 기록들이 로그입니다. 로그는 IT 환경에서 가장 많이 발생하지만, 데이터 처리 기술이 발달하지 않았던 시기에는 처리 비용에 비해 가치가 낮은 데이터로 여겨졌습니다. 하지만 최근들어 IT 서비스와 인프라가 다양해지고 디지털 트랜스포메이션이 가속화되면서, 로그의 양이 기하급수적으로 증가하고 사물인터넷(IoT), 빅데이터 등과 같은 신기술이 발전하면서 그 효용성 또한 날로 증가하고 있습니다. 그렇다면, 이 로그는 실제로 어떻게 활용될까요? 개발 영역에서는 버그 혹은 크래시율 수집 및 상시 트래킹, 이슈 발생 후 롤백 및 대응, 특정 기능에 대한 사용성 진단에 활용됩니다. 마케팅 분야는 채널별 ROI 진단 및 비용 최적화, 배너/프로모션/이벤트 효과 측정, 유저 세그멘테이션 및 타게팅에 사용합니다. 기획 및 디자인 영역은 기능 개선을 위한 A/B 테스트, 유저 Journey 경로 분석을 통한 UX/UI 최적화 등에서 쓰이고 있습니다. 이처럼 여러 영역에서 다양하게 쓰이는 로그를 관리하지 않고 방치해두면 어떤 일이 발생할까요? 통합로그관리가 필요한 이유에 대해 알아보겠습니다. ----------------------------------------------- I. 보안 대응체계 구축 저장만 하고 관리되지 않은 로그는 IT 시스템의 장애나 문제 발생 시 그 원인을 찾아내기가 어렵습니다. 또, 로그 데이터의 중요 정보가 외부로 유출될 위험도 커집니다. 끊임없이 발생하는 보안 사고에 대비하기 위해 통합로그관리는 반드시 필요합니다. 관리된 로그는 장애나 사고 발생 시에 그 원인을 파악하고 빠른 대처를 위한 근거 데이터로 사용할 수 있으며, 보안 체계를 마련하는 데에도 활용가능 합니다. 기업들은 로그관리 제품을 사용해 사이버 침해위협을 예방 및 감시하고, 정기적인 로그분석을 통해 강력한 보안대응체계를 구축하고 있습니다. 통합로그관리 솔루션은 보안장비(Firewall, IDC, IPS 등)의 로그와 해킹, 악성코드 등 보안/침해 관련 로그를 지속적으로 분석해 예방 체계를 구축합니다. 또, 대용량 로그의 상관분석을 통해 보안위협을 탐지하고 이상징후를 모니터링하는 등 강력한 보안 대응체계를 구축할 수 있습니다. II. 컴플라이언스 준수 로그는 보안 사고가 발생했을 때 가장 기본적인 증거 및 모니터링 자료로 활용됩니다. 이에 따라 정부에서는 데이터 관리에 대해 각종 법률을 규정하고 있어, 공공기관을 비롯한 개인정보를 다루는 온라인 사업자 및 기업 등은 해당 법규를 준수해야 합니다. 안전한 데이터 이용을 위해 2018년에 발의된 '데이터 3법' 개정안은 2020년 1월 9일 국회 본회의를 통과했습니다. 데이터 3법은 개인정보 보호법, 정보통신망 이용촉진 및 정보보호 등에 관한 법률, 신용정보의 이용 및 보호에 관한 법률 등 3가지 법률을 통칭합니다. 로그 관리 관련 규제의 주요 내용은 다음과 같습니다. i. 개인정보보호를 위해 접근 권한 부여, 변경 또는 말소 기록을 3년 이상 보관해야 합니다. ii. 개인정보 취급자는 개인정보처리시스템의 접속기록을 월 1회 이상 점검해야 하고, 그 활동의 증거를 남기기 위해 시스템에 접속했다는 기록을 1년 이상 보관해야 합니다. iii. 정보통신서비스 제공자는 접근 권한 내역을 5년간 보관하고, 접속 기록의 위·변조 방지를 위해 반드시 백업 보관해야 합니다. III. 빅데이터 처리 플랫폼 IT 인프라 확대 및 기타 비정형 로그 유입에 따라 대용량 로그에 대한 관리가 요구되고 있습니다. 특히 수집된 로그를 실시간으로 분석∙판단해 IT 서비스의 안정적 운영을 도모해야 하는 수요가 증대되고 있는데요. 오늘날의 데이터는 기존 데이터에 비해 양이 매우 방대해 기존 방법이나 도구로는 관리가 어렵습니다. 따라서 빅데이터 기술을 기반으로 하는 대용량 통합 로그관리 솔루션은 이제 IT 운영을 위한 필수 솔루션으로 자리잡았습니다. ----------------------------------------------- 이처럼 기업은 보안위협 및 이상징후 대응/컴플라이언스 준수/대용량 로그 관리를 위해 통합로그관리 솔루션을 필수로 갖춰야합니다. 브레인즈컴퍼니의 통합로그관리 솔루션 '제니우스(Zenius) Logmanager'는 이기종 장비에서 발생되는 정형∙비정형 로그 데이터의 수집/분석/관리 등을 위한 빅데이터 플랫폼입니다. 제니우스 로그매니저가 어떻게 구성돼 있는지 살펴보겠습니다. 제니우스 로그매니저는 정형/반정형 또는 비정형 로그에 대한 실시간 수집 및 신속한 분석 기능을 제공하며, 이러한 정보들을 다양한 차트와 대시보드를 통해 직관적으로 가시화합니다. 특히 로그매니저는 독보적인 인덱싱 및 검색 속도를 제공하며 확장성, 편의성, 효율성, 호환성 등의 특장점을 보유한 제품입니다. 로그 이벤트 발생 시 즉각적인 알람을 통해 빠른 문제 해결과 높은 가용성을 확보하도록 지원합니다.
2022.11.10
1