Remix: Rebalanced Mixup
Abstract
- 심층 이미지 분류기는 학습 데이터의 클래스 불균형이 심할 결우 성능이 저하되는 경향이 있음.
- 기존 Mixup의 공식을 완화하고, 특징과 라벨의 혼합 요소를 분리하는 새로운 정규화 기법인 Remix 제안.
- 실험 결과 Remix가 기존 방법보다 일관되고 상당한 개선 효과를 보임.
1 Introduction
- Deep Neural Networks
- 성능에 중요한 영향을 미치는 요소중 하나가 학습 데이터
- Data-imbalanced
- 학습 데이터 중 클래스 간의 균형있는 분포를 유지하도록 라벨링되고 설계되어야 하나, 실제로 특정 클래스가 다른 클래스보다 훨씬 더 많은 비중을 차지
- 데이터 불균형은 추론할 때 신경망이 다수 클래스에 편향되게 만들 수 있음.
- 이 문제를 해결하기 위해 사용한 기존의 방법
- Re-weighting
- 클래스별로 가중치를 조정하는데 중점을 둠
- 극단적인 불균형 상태에서 최적화를 어렵게 만드는 경향이 있음.
- Re-sampling
- 균형 잡힌 신경망 모델을 재구성하는데 중점을 둠
- 대규모 데이터셋에 편리하게 통합할 수 있는 솔루션을 마련하기 위해 일반적으로 추가 비용이 거의 들지 않는 정규화 기법에 중점을 둔다.
- Mixup
- 특징과 레이블 쌍의 볼록한 조합을 통해 가상으로 생성된 혼합 샘플로 신경 모델을 훈련.
- Remix
- 가상 혼합 샘플을 구성할 때 특징과 라벨의 혼합 계수가 서로 다를 수 있음.

‘나비’ 라벨이 소수 클래스에 속하고 ‘노란 식물’ 라벨이 다수 클래스에 속한다고 가정 하였을 때, 두 이미지의 모든 선형 조합은 점선 위에 존재한다. 가운데 이미지처럼 ‘나비’가 70%, ‘노란 식물’이 30%인 혼합 이미지의 경우 Mixup은 라벨을 70% ‘나비’와 30% ‘노란 식물’로 할당한다. Remix의 경우 소수 클래스에 유리하도록 100% ‘나비’ 같이 라벨을 할당한다.
2 Related Works
- Re-Weighting
- 각 클래스 또는 샘플의 중요도를 조정하여 비용 또는 손실을 튜닝하는 방법
- 일반적으로 클래스 간 불균형이 극도로 심한 경우 Re-Weighting방식은 성능이 저하된다.
- Re-Sampling
- 소수 클래스를 과다 샘플링하거나 다수 클래스를 과소 샘플링하여 균형 잡힌 데이터셋으로 재구성 하는 방법.
- 소수 클래스를 과다 샘플링하면 해당 샘플에 과적합이 발생할 수 있음.
- 다수 클래스를 과소 샘플링 하면 데이터와 정보의 불균형이 심할 때 낭비될 수 있음.
- Alternative Traning Objectives
- Focal Loss는 객체 감지 작업에서 클래스 불균형 문제를 해결하기 위해 제안된 손실 함수.
- 교차 엔트로피 손실에 변조 용어를 추가하여, 쉬운 예제의 기여도를 줄이고 어려운 예제의 기여도를 높임
- 객체 감지 작업에서 상당한 개선을 하였으나, 대규모 불균형 이미지 분류에는 효과적이지 않음.
- Mixup-based Regularization
- Mixup은 샘플의 보간을 통해 학습하는 정규화 기법
- 간단하고 DNN의 일반화를 개선하는데 매우 효과적
3 Preliminaries
3.1 Mixup
- Mixup은 DNN의 일반화를 개선하기 위한 정규화 기법