- Active Function
1) Sigmoid -> 0~1사이 값 반환

2) Tanh -> 데이터 평균 0이 되도록 함, -1~1사이 값 반환

보통 tanh가 sigmoid보다 우수/ 예외) 이진분류에서는 sigmoid가 우수
3) ReLU -> 기울기 = 1

4) Leaky ReLU => 음수 쪽 기울기 = 0.01



- Deep neural network



- Forward and Backward function

- 캐시(Cache): 순방향 전파 중 계산된 변수를 해당 역방향 전파 단계로 전달하는데 사용. 도함수를 계산하기 위한 역방향 전파에 유용한 값 포함.

'3-1 > Deep Learning' 카테고리의 다른 글
6주차-Hyperparameters and Batch Norm (1) | 2024.05.11 |
---|---|
5주차-Optimization Algorithms (1) | 2024.05.11 |
4주차-Practical Aspects of Deep Learning (0) | 2024.05.11 |
2주차-Shallow Neural Networks (2) | 2024.05.11 |
1주차-Introduction to Deep Learning (1) | 2024.05.11 |