cleanUrl: "manifold-mixup-paper-review"
description: "Manifold mixup 논문을 리뷰합니다."

Over-confidence problem

왜 over-confident한가?

  1. Decision boundary가 sharp하고 data에 가깝기 때문
  2. 대부분의 hidden representation space에 높은 confidence의 prediction 값이 할당되어 있음.

Manifold mixup의 효과

(a) Vanilla training 시의 decision boundary. (b) Manifold mixup 사용 시의 decision boundary. 더 smooth하다. (c) Layer 1의 representation들의 singular values. Manifold mixup representation들이 더 적은 representation으로 더 큰 데이터 variance를 설명하고 있다. (d) Vanilla training 시의 hidden representation. (e) Manifold mixup 사용 시의 hidden representation. (f) → (c)와 마찬가지.

(a) Vanilla training 시의 decision boundary. (b) Manifold mixup 사용 시의 decision boundary. 더 smooth하다. (c) Layer 1의 representation들의 singular values. Manifold mixup representation들이 더 적은 representation으로 더 큰 데이터 variance를 설명하고 있다. (d) Vanilla training 시의 hidden representation. (e) Manifold mixup 사용 시의 hidden representation. (f) → (c)와 마찬가지.

<aside> 💡 Manifold mixup improves the hidden representations and decision boundaries of neural networks at multiple layers.

</aside>

Manifold mixup