3-1/Deep Learning

3주차-Deep Neural Networks

Donghun Kang 2024. 5. 11. 16:12

 

  • Active Function

1) Sigmoid -> 0~1사이 값 반환

2) Tanh -> 데이터 평균 0이 되도록 함, -1~1사이 값 반환

 

 

보통 tanh가 sigmoid보다 우수/ 예외) 이진분류에서는 sigmoid가 우수

3) ReLU -> 기울기 = 1

 

4) Leaky ReLU => 음수 쪽 기울기 = 0.01

 

  • Deep neural network

 

  • Forward and Backward function
  • 캐시(Cache): 순방향 전파 중 계산된 변수를 해당 역방향 전파 단계로 전달하는데 사용. 도함수를 계산하기 위한 역방향 전파에 유용한 값 포함.