반복영역 건너뛰기
주메뉴 바로가기
본문 바로가기
제품/서비스
EMS Solution
Features
클라우드 관리
서버관리
데이터베이스 관리
네트워크 관리
트래픽 관리
설비 IoT 관리
무선 AP 관리
교환기 관리
운영자동화
실시간 관리
백업 관리
스토리지 관리
예방 점검
APM Solution
애플리케이션 관리
URL 관리
브라우저 관리
ITSM Solution
서비스데스크
IT 서비스 관리
Big Data Solution
SIEM
AI 인공지능
Dashboard
대시보드
Consulting Service
컨설팅 서비스
고객
레퍼런스
고객FAQ
문의하기
가격
자료실
카탈로그
사용자매뉴얼
회사소개
비전·미션
연혁
2016~현재
2000~2015
인증서·수상
투자정보
재무정보
전자공고
IR자료
새소식
공고
보도자료
오시는 길
채용
피플
컬처
공고
FAQ
블로그
열기
메인 페이지로 이동
블로그
기술이야기
블로그
최신이야기
사람이야기
회사이야기
기술이야기
다양한이야기
카프카를 통한 로그 관리 방법
메모리 누수 위험있는 FinalReference 참조 분석하기
김진광
2023.10.12
페이스북 공유하기
트위터 공유하기
링크드인 공유하기
블로그 공유하기
[행사] 브레인즈컴퍼니 ‘가을문화행사 2023’
Java에서 가장 많이 접하는 문제는 무엇이라 생각하시나요? 바로 리소스 부족 특히 ‘JVM(Java Virtual Machine) 메모리 부족 오류’가 아닐까 생각해요.
메모리 부족 원인에는 우리가 일반적으로 자주 접하는 누수, 긴 생명주기, 다량의 데이터 처리 등 몇 가지 패턴들이 있는데요. 오늘은 좀 일반적이지 않은(?) 유형에 대해 이야기해 볼게요!
Java 객체 참조 시스템은 강력한 참조 외에도 4가지 참조를 구현해요. 바로 성능과 확장성 기타 고려사항에 대한 SoftReference, WeakReference, PhantomReference, FinalReference이죠. 이번 포스팅은
FinalReference를 대표적인 사례
로 다루어 볼게요.
PART1. 분석툴을 활용해 메모리 누수 발생 원인 파악하기
메모리 분석 도구를 통해 힙 덤프(Heap Dump)를 분석할 때, java.lang.ref.Finalizer 객체가 많은 메모리를 점유하는 경우가 있어요. 이 클래스는 FinalReference와 불가분의 관계에요. 나눌 수 없는 관계라는 의미죠.
아래 그림 사례는 힙 메모리(Heap Memory)의 지속적인 증가 후 최대 Heap에 근접 도달 시, 서비스 무응답 현상에 빠지는 분석 사례인데요. 이를 통해 FinalReference 참조가 메모리 누수를 발생시킬 수 있는 조건을 살펴볼게요!
Heap Analyzer 분석툴을 활용하여, 힙 덤프 전체 메모리 요약 현황을 볼게요. java.lang.ref.Finalizer의 점유율이 메모리의 대부분을 점유하고 있죠. 여기서 Finalizer는, 앞에서 언급된 FinalReference를 확장하여 구현한 클래스에요.
JVM은 GC(Garbage Collection) 실행 시 해제 대상 객체(Object)를 수집하기 전, Finalize를 처리해야 해요.
Java Object 클래스에는 아래 그림과 같이 Finalize 메서드(Method)가 존재하는데요. 모든 객체가 Finalize 대상은 아니에요.
JVM은 클래스 로드 시, Finalize 메서드가 재정의(Override)된 객체를 식별해요. 객체 생성 시에는 Finalizer.register() 메서드를 통해, 해당 객체를 참조하는 Finalizer 객체를 생성하죠.
그다음은 Unfinalized 체인(Chain)에 등록해요. 이러한 객체는 GC 발생 시 즉시 Heap에서 수집되진 않아요. Finalizer의 대기 큐(Queue)에 들어가 객체에 재정의된 Finalize 처리를 위해 대기(Pending) 상태에 놓여있죠.
위 그림과 같이 참조 트리(Tree)를 확인해 보면, 많은 Finalizer 객체가 체인처럼 연결되어 있어요. 그럼 Finalizer 객체가 실제 참조하고 있는 객체는 무엇인지 바로 살펴볼까요?
그림에 나온 바와 같이 PostgreSql JDBC Driver의 org.postgresql.jdbc3g.Jdbc3gPreparedStatement인 점을 확인할 수 있어요. 해당 시스템은 PostgreSql DB를 사용하고 있었네요.
이처럼 Finalizer 참조 객체 대부분은 Jdbc3gPreparedStatement 객체임을 알 수 있어요. 여기서 Statement 객체는, DB에 SQL Query를 실행하기 위한 객체에요.
그렇다면, 아직 Finalize 처리되지 않은 Statement 객체가 증가하는 이유는 무엇일까요?
먼저 해당 Statement 객체는 실제로 어디서 참조하는지 살펴볼게요. 해당 객체는 TimerThread가 참조하는 TaskQueue에 들어가 있어요. 해당 Timer는 Postgresql Driver의 CancelTimer이죠.
해당 Timer의 작업 큐를 확인해 보면 PostgreSql Statement 객체와 관련된 Task 객체도 알 수도 있어요.
그럼 org.postgresql.jdbc3g.Jdbc3gPreparedStatement 클래스가 어떻게 동작하는지 자세히 알아볼까요?
org.postgresql.jdbc3g.Jdbc3gPreparedStatement는 org.postgresql.jdbc2.AbstractJdbc2Statement의 상속 클래스이며 finalize() 메서드를 재정의한 클래스에요. Finalize 처리를 위해 객체 생성 시, JVM에 의해 Finalizer 체인으로 등록되죠.
위와 같은 코드로 보아 CancelTimer는, Query 실행 후 일정 시간이 지나면 자동으로 TimeOut 취소 처리를 위한 Timer에요.
정해진 시간 내에 정상적으로 Query가 수행되고 객체를 종료(Close) 시, Timer를 취소하도록 되어 있어요. 이때 취소된 Task는 상태 값만 변경되고, 실제로는 Timer의 큐에서 아직 사라지진 않아요.
Timer에 등록된 작업은, TimerThread에 의해 순차적으로 처리돼요. Task는 TimerThread에서 처리를 해야 비로소 큐에서 제거되거든요.
이때 가져온 Task는 취소 상태가 아니며, 처리 시간에 아직 도달하지 않은 경우 해당 Task의 실행 예정 시간까지 대기해야 돼요.
여기서 문제점이 발생해요.
이 대기 시간이 길어지면 TimerThread의 처리가 지연되기 때문이죠. 이후 대기 Task들은 상태 여부에 상관없이, 큐에 지속적으로 남아있게 돼요.
만약 오랜 시간 동안 처리가 진행되지 않는다면, 여러 번의 Minor GC 발생 후 참조 객체들은 영구 영역(Old Gen)으로 이동될 수 있어요.
영구 영역으로 이동된 객체는, 메모리에 즉시 제거되지 못하고 오랜 기간 남게 되죠. 이는 Old(Full) GC를 발생시켜 시스템 부하를 유발하게 해요. 실제로 시스템에 설정된 TimeOut 값은 3,000초(50분)에요.
Finalizer 참조 객체는 GC 발생 시, 즉시 메모리에서 수집되지 않고 Finalize 처리를 위한 대기 큐에 들어가요. 그다음 FinalizerThread에 의해 Finalize 처리 후 GC 발생 시 비로소 제거되죠. 때문에 리소스의 수집 처리가 지연될 수 있어요.
또한 FinalizerThread 스레드는 우선순위가 낮아요. Finalize 처리 객체가 많은 경우, CPU 리소스가 상대적으로 부족해지면 개체의 Finalize 메서드 실행을 지연하게 만들어요. 처리되지 못한 객체는 누적되게 만들죠.
요약한다면 FinalReference 참조 객체의 잘못된 관리는
1) 객체의 재 참조를 유발 2) 불필요한 객체의 누적을 유발 3) Finalize 처리 지연으로 인한 리소스 누적을 유발
하게 해요.
PART2.
제니우스 APM을 통해 Finalize 객체를 모니터링하는 방법
Zenius APM에서는 JVM 메모리를 모니터링하고 분석하기 위한, 다양한 데이터를 수집하고 있어요. 상단에서 보았던
FinalReference 참조 객체의 현황에 대한 항목도 확인
할 수 있죠.
APM 모니터링을 통해 Finalize 처리에 대한 문제 발생 가능성도
‘사전’
에 확인
할 수 있답니다!
위에 있는 그림은 Finalize 처리 대기(Pending)중인 객체의 개수를 확인 가능한 컴포넌트에요.
이외에도 영역별 메모리 현황 정보와 GC 처리 현황에 대해서도 다양한 정보를 확인 할 수 있어요!
이상으로 Finalize 처리 객체에 의한 리소스 문제 발생 가능성을, 사례를 통해 살펴봤어요. 서비스에 리소스 문제가 발생하고 있다면, 꼭 도움이 되었길 바라요!
------------------------------------------------------------
©참고 자료
◾ uxys, http://www.uxys.com/html/JavaKfjs/20200117/101590.html
◾ Peter Lawrey, 「is memory leak? why java.lang.ref.Finalizer eat so much memory」, stackoverflow, https://stackoverflow.com/questions/8355064/is-memory-leak-why-java-lang-ref-finalizer-eat-so-much-memory
◾ Florian Weimer, 「Performance issues with Java finalizersenyo」, enyo,
https://www.enyo.de/fw/notes/java-gc-finalizers.html
------------------------------------------------------------
#APM
#Finalize
#제니우스
#메모리 누수
#Zenius
#FinalReference
#제니우스 APM
김진광
APM팀(개발3그룹)
개발3그룹 APM팀에서 제품 개발과 기술 지원을 담당하고 있습니다.
필진 글 더보기
목록으로
추천 콘텐츠
이전 슬라이드 보기
서버 관리 툴, Zenius SMS를 통한 Docker 기반 컨테이너 모니터링 팁
서버 관리 툴, Zenius SMS를 통한 Docker 기반 컨테이너 모니터링 팁
최근 IT 운영 환경에서는 컨테이너 기반 배포 방식이 빠르게 자리 잡고 있습니다. 특히 Docker는 가볍고 이식성이 뛰어나며, 새로운 서비스를 빠르게 배포할 수 있다는 장점 덕분에 개발과 운영 전반에서 가장 많이 활용되는 기술 중 하나입니다. 하지만 이렇게 편리한 Docker도 관리 측면에서는 쉽지 않은 과제를 안고 있습니다. 컨테이너는 짧은 주기로 만들어졌다가 사라지고, 서비스 부하에 따라 개수가 급격히 늘어나거나 줄어듭니다. 이런 특성 때문에 기존 서버 모니터링만으로는 전체 상황을 정확히 파악하기 어렵습니다. Zenius SMS는 서버·네트워크·스토리지를 비롯해 Docker 환경까지 아우르는 통합 모니터링 플랫폼으로, HTML5 기반 UI와 강력한 데이터 수집·분석 기능을 제공합니다. 이를 통해 운영자는 컨테이너의 성능, 로그, 프로세스, 파일시스템, 이미지 정보를 한 화면에서 관리하고 분석할 수 있습니다. 서버 모니터링 툴, Zenius SMS에서 Docker 기반 컨테이너 모니터링을 구성하고 확인하는 절차, 그리고 이를 실무에서 활용하는 방법을 단계별로 살펴보겠습니다. 모니터링 기능 구성과 확인 절차 서버 관리 툴 Zenius SMS의 Docker 기반 컨테이너 모니터링 기능은 단순히 데이터를 수집하는 것에서 그치지 않고, 설정 단계부터 실시간 모니터링, 세부 정보 조회까지 일련의 명확한 흐름을 갖추고 있습니다. 이 절차를 이해하면, 기능을 효율적으로 구성하고 운영 현황을 정확하게 파악할 수 있습니다. Docker 모니터링을 시작하는 방법과 각 화면에서 확인할 수 있는 정보, 그리고 이를 통해 어떤 분석이 가능한지를 차례대로 살펴보겠습니다. Step 1. 에이전트 설정에서 모니터링 활성화 및 수집 주기 지정 모니터링을 시작하기 위해서는 먼저 에이전트 설정에서 컨테이너 모니터링 기능을 켜야 합니다. 메뉴 경로는 ‘SMS > 모니터링 > 모니터링 상세보기 > 에이전트 설정 > 일반 설정 > 모니터링 설정’입니다. 여기서 컨테이너/컨테이너 로그에 대한 모니터링 여부와 수집 주기를 켭니다. - 모니터링 주기(데이터 수집 주기): 30초 - 평균 기준 기간(수집 데이터를 평균 낼 기간): 5분 - 변화량 기준 기간(평균 데이터의 편차 산출 기간): 1분 이 단계에서 설정을 저장하면 이후 화면(컨테이너/이미지)에서 해당 주기로 수집된 데이터가 표출됩니다 Step 2. 컨테이너 화면에서 운영 현황 점검(성능·로그·프로세스·파일시스템) 컨테이너 모니터링에서 가장 핵심이 되는 화면은 바로 컨테이너 현황 화면입니다. 메뉴 경로는 다음과 같습니다. 메뉴 경로는 SMS > 모니터링 > 모니터링 상세보기 > 컨테이너 > 컨테이너입니다. 이 화면에서 컨테이너 이름, IP, 포트, 생성 시점 등 기본 운영 정보와 함께 하단의 세부 탭을 통해 컨테이너 단위 데이터를 확인합니다. - 성능: CPU 사용량, 메모리 점유율, 네트워크 인터페이스 입출력(NIC In/Out), 블록 디바이스 입출력(Block In/Out)과 같은 리소스 지표를 실시간으로 보여줍니다. 이를 통해 운영자는 컨테이너별로 리소스 사용 패턴을 비교하거나, 특정 시점에 과부하가 발생했는지를 빠르게 확인할 수 있습니다. - 로그: 컨테이너에서 발생하는 이벤트 및 상태 변화 로그를 수집해 보여줍니다. 예를 들어, 컨테이너가 재시작되었거나, 특정 에러 이벤트가 발생했을 때 이를 실시간으로 확인할 수 있습니다.이는 단순한 성능 지표만으로는 알 수 없는 운영 이슈의 원인을 파악하는 데 중요한 단서를 제공합니다. (컨테이너 & 컨테이너 로그) (컨테이너 & 컨테이너 프로세스 데이터) - 프로세스: 컨테이너 내부에서 실행 중인 프로세스 목록과 상태를 보여줍니다. 어떤 프로세스가 CPU나 메모리를 과도하게 점유하고 있는지, 비정상적으로 종료된 프로세스는 없는지를 직접 확인할 수 있습니다. 이는 서버 수준의 모니터링이 아닌, 컨테이너 내부 동작까지 투명하게 추적할 수 있다는 점에서 운영 안정성 확보에 큰 도움이 됩니다. - 파일시스템: 컨테이너 내부에 마운트된 파일 경로, 접근 권한, 사용량 등 파일시스템 관련 정보를 제공합니다. 이를 통해 특정 컨테이너에서 파일 권한 문제나 디스크 사용량 초과와 같은 장애 가능성을 조기에 발견할 수 있습니다. (컨테이너 & 컨테이너 파일 시스템 데이터) Step 3. 이미지 화면에서 이미지 메타데이터 확인 컨테이너는 기본적으로 이미지(Image)를 기반으로 생성되기 때문에, 어떤 이미지가 사용되고 있으며 해당 이미지의 상태가 어떤지 확인하는 것은 운영 관리에서 매우 중요한 절차입니다. Zenius SMS에서는 이를 전용 화면을 통해 직관적으로 관리할 수 있도록 지원합니다. 메뉴 경로는 ‘SMS > 모니터링 > 모니터링 상세보기 > 컨테이너 > 이미지’입니다. 컨테이너 생성 기반이 되는 이미지명, 이미지 ID, 이미지 크기, 이미지 태그(및 상세) 등을 이미지별로 조회하여 버전/용량/태그 기준의 관리 및 추적에 활용할 수 있습니다. 활용 가이드 Docker 기반 컨테이너 모니터링 기능을 구성한 이후에는, 운영자가 상황에 맞게 다양한 화면과 기능을 활용할 수 있습니다. 이 과정은 정해진 절차를 단계별로 따라야 하는 것이 아니라, 필요에 따라 선택적으로 적용할 수 있는 여러 가지 케이스로 구성됩니다. 실제 운영 현장에서 자주 활용되는 대표적인 네 가지 케이스를 알아보겠습니다. Case 1. 성능 모니터링 차트 확인 Zenius SMS에서는 컨테이너 단위로 주요 성능 지표를 차트 형태로 제공합니다. CPU 사용률, 메모리 사용량, 네트워크 입출력, 디스크 블록 입출력 등 핵심 지표를 시간대별로 시각화하여 운영자는 리소스 사용 패턴과 부하 변화를 한눈에 파악할 수 있습니다. 특히 이 차트는 단순한 실시간 데이터만 보여주는 것이 아니라, 과거의 이력 데이터까지 함께 제공합니다. 이를 통해 현재 상태와 장기적인 추세를 동시에 분석할 수 있으며, 특정 시점에 발생한 급격한 변동도 쉽게 확인할 수 있습니다. 이런 조기 식별 능력은 장애 대응 속도를 높이고, 성능 저하를 예방하는 데 직접적인 도움을 줍니다. - 실시간 + 이력 데이터 동시 제공: 현재 상태와 과거 추세를 함께 분석 가능 - 이상 징후 조기 식별: 특정 시점의 급격한 변동을 신속하게 확인하여 대응 (컨테이너 & 컨테이너 성능) Case 2. 차트 제목 클릭으로 평균/최대치 확인 컨테이너 성능 차트는 단순히 그래프만 보여주는 것이 아니라, 제목을 클릭하면 해당 지표의 평균값과 최대값을 표 형태로 함께 제공합니다. 평균값은 일정 기간 동안의 전반적인 자원 사용 수준을 파악하는 기준선 역할을 하고, 최대값은 특정 시점에서의 부하 피크를 정확히 식별하는 데 유용합니다. 이 기능을 활용하면 리소스 사용의 ‘일상적인 수준’과 ‘최대 부하 상황’을 동시에 파악할 수 있어 용량 계획이나 성능 튜닝에 실질적인 인사이트를 제공합니다. - 평균값 활용: 장기적인 리소스 사용 기준선 설정 - 최대값 활용: 부하 집중 시간대 파악 및 용량 계획 수립 (컨테이너 성능_계속) Case 3. 데이터 보기 기능 활용 차트만으로는 성능 변화를 직관적으로 확인할 수 있지만, 세밀한 분석에는 한계가 있습니다. 이를 보완하는 기능이 바로 ‘데이터 보기’ 버튼입니다. 해당 버튼을 누르면 차트에 표시된 지표가 시간 단위의 세부 데이터로 변환되어 표 형태로 표시됩니다. 운영자는 이를 통해 순간적인 성능 저하나 특정 이벤트 발생 시점을 더 정밀하게 추적할 수 있습니다. 또한 이 데이터를 CSV 형식으로 내보내어 장기 분석이나 외부 보고서 작성에도 활용할 수 있습니다. - 세부 데이터 조회: 시간 단위 기록으로 원인 분석 정확도 향상 - 데이터 내보내기: CSV로 추출해 장기 분석·외부 보고서 작성에 활용 가능 (컨테이너 성능_통계 데이터) Case 4. 차트/데이터 비교 분석 여러 지표나 컨테이너 간 데이터를 비교하여 상관관계를 파악할 수 있습니다. 예를 들어, CPU 사용량이 높은 컨테이너와 네트워크 트래픽이 많은 컨테이너를 함께 비교하면 특정 워크로드가 어떤 방식으로 리소스를 소모하는지 명확히 드러납니다. 이렇게 교차 분석을 수행하면 단일 지표만 볼 때 놓치기 쉬운 상관관계를 발견할 수 있으며, 문제 원인을 더 정확하게 짚어낼 수 있습니다. - 다중 지표 비교: 다양한 성능 요소를 교차 검증 - 장애 원인 분석: 시간대별 변화 패턴 비교로 문제 지점 식별 (컨테이너 통계_데이터 보기) 컨테이너 환경은 빠른 배포와 유연한 확장성을 제공하는 대신, 운영자가 관리해야 할 복잡성과 변동성이라는 과제를 함께 안겨줍니다. 서버 관리 툴 Zenius SMS의 Docker 모니터링 기능은 이러한 과제를 해결하기 위해 통합 UI, 실시간 데이터 분석, 심층 진단, 보안 점검을 하나의 플랫폼에서 제공하며 운영자가 안정적으로 서비스를 관리할 수 있도록 돕습니다. 이를 통해 운영자는 서비스 품질과 가용성을 지속적으로 유지할 수 있고, 예기치 못한 장애나 보안 위협에 대해서도 선제적으로 대응할 수 있습니다. 결국 Zenius SMS는 Docker 기반 컨테이너 환경뿐 아니라 현대적인 IT 인프라 전반의 안정성과 효율성을 높이는 데 필수적인 도구로 자리매김하고 있습니다.
2025.08.20
다음 슬라이드 보기