keywords : 활성화함수 activation function 시그모이드 sigmoid relu 계단함수 step function 소프트맥스 softmax 신경망 neural network 비선형 함수 non linear 기울기 소실 문제 vanishing gradient dying relu leaky relu dot normalize flatten 순전파 forward 손글씨 숫자 mnist 배치 batch
본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다.
<Reference >
"밑바닥부터 시작하는 딥러닝1"
댓글 영역