3-2/기계학습

10주차-Multi-class Classification

Donghun Kang 2024. 12. 1. 18:26
  • Multi-class Classification
- binary classification에 관해서 다뤘었다 => Logistic Regression
- Multi-class Classification으로 확장을 해보자

 

  • Decision Boundary of Multi-class Classification

 

  • Softmax Regression(Classification)
<Softmax>
Logistic Regression의 일반화된 형태로 설명된다.
- Softmax는 각 클래스의 확률을 계산하며, 계산된 확률의 총합은 항상 1이 된다.
- Softmax는 (one-shot) argmax의 smooth approximation으로 사용된다.

EX) Hard Max VS Soft Max

  • Logistic VS Softmax 
  • Activation

  • Loss Function

=> Logistic Regression은 binary Classification에 적합
=> Softmax는 Multi-class Classification에 적합

 

  • One-hot Vector
- Class Label을 binary vector로 변환

EX) 

 

#implimentation

ohv = np.zeros(c)  # c는 클래스 개수
if index == y:
    ohv[index] = 1.0

 

  • Cross-entropy Loss

 

  • Cross-entropy Loss with One-hot Vector

 

  • Multi-activation

  • Multi-activation Softmax layer

 

  • Derivation of Softmax(Softmax의 미분)

 

  • Derivation of CE Loss(Cross-Entropy의 미분)

 

  • Derivative of ReLU(ReLU의 미분)

 

  • Loss Curve
- Loss surface와는 다른 것.
<Loss Curve>
학습 과정 중 Loss Function 값 J(w)의 변화를 나타낸 그래프
- x축: training iteration or epoch
- y축: Loss function 값 J(w)
 Loss Curve VS Loss Surface
- Loss Curve: 학습 반복에 따른 손실 변화(1D 그래프)
- Loss Surface: 매개변수 w공간에서의 손실 값 분포를 나타냄(2D or 3D 그래프)

 

'3-2 > 기계학습' 카테고리의 다른 글

12주차-Learning Strategies  (0) 2024.12.07
11주차-Loss Function Design  (0) 2024.12.07
9주차-Activations, Implementation Details of Neural Network  (0) 2024.11.27
8주차-Neural Network  (0) 2024.11.27
7주차-Regularization  (1) 2024.10.27