항상 감사하며 마633

고정 헤더 영역

글 제목

메뉴 레이어

항상 감사하며 마633

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (93)
    • 개발 (59)
      • 개발환경설정 (6)
      • python-심화(Advanced) (23)
      • python-객체지향프로그래밍(OOP) (21)
      • python-병렬처리 (7)
      • python-속도향상(optimization) (2)
    • Study (16)
      • DeepLearning from scratch (16)
    • paper review (15)
      • NLP (15)
    • Google Machine Learning Boo.. (3)

검색 레이어

항상 감사하며 마633

검색 영역

컨텐츠 검색

Study/DeepLearning from scratch

  • 쉽게 ppt로 정리한 밑바닥 딥러닝1 day 4_3 good fit, batch normalization, 과적합(overfitting), weight decay

    2021.01.09 by Matthew0633

  • 쉽게 ppt로 정리한 밑바닥 딥러닝1 day 4_2 옵티마이저, sgd, adagrad, momentum, rmsprop, adam, xavier, he

    2021.01.09 by Matthew0633

  • 쉽게 ppt로 정리한 밑바닥 딥러닝1 day 4_1 layer 구현 - affine, softmaxloss, relu, sigmoid, 덧셈, 곱셈, backpropagation

    2021.01.09 by Matthew0633

  • 쉽게 ppt로 정리한 밑바닥 딥러닝1 day 3_3 오차역전법 backpropagation, 연쇄법칙, chain rule, 계산그래프

    2021.01.02 by Matthew0633

  • 쉽게 ppt로 정리한 밑바닥 딥러닝1 day3_2 신경망, 학습, gradient, loss function

    2021.01.02 by Matthew0633

  • 쉽게 ppt로 정리한 밑바닥 딥러닝1 day3_1 신경망, 활성화함수, batch

    2021.01.02 by Matthew0633

  • 쉽게 ppt로 정리한 밑바닥 딥러닝1 day2 논리회로 (AND, OR, XOR), 다층 퍼셉트론

    2020.12.29 by Matthew0633

  • 쉽게 ppt로 정리한 밑바닥 딥러닝1 day1 numpy(broadcast, indexing), matplotlib

    2020.12.28 by Matthew0633

쉽게 ppt로 정리한 밑바닥 딥러닝1 day 4_3 good fit, batch normalization, 과적합(overfitting), weight decay

keywords : good fit 좋은 학습 배치정규화 batch normalization 과적합 overfitting 억제 regularization 하이퍼파라미터 hyperparameter 기울기 감소 weight decay 본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다. "밑바닥부터 시작하는 딥러닝1"

Study/DeepLearning from scratch 2021. 1. 9. 19:11

쉽게 ppt로 정리한 밑바닥 딥러닝1 day 4_2 옵티마이저, sgd, adagrad, momentum, rmsprop, adam, xavier, he

keywords : 옵티마이저 optimizer softmax with loss cross entropy optimizer 최적화 SGD stochastic gradient descent 비등방성 anisotropy 모멘텀 momentum adagrad learning rate decay 학습률 감소 에타 eta 학습률 RMSProp exponentially weighted moving average 지수 가중 이동 adam weight decay 가중치 감소 sigmoid 시그모이드 Xavier 자비에 초기화 He 헤 relu 함수 본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다. "밑바닥부터 시작하는 딥러닝1"

Study/DeepLearning from scratch 2021. 1. 9. 19:10

쉽게 ppt로 정리한 밑바닥 딥러닝1 day 4_1 layer 구현 - affine, softmaxloss, relu, sigmoid, 덧셈, 곱셈, backpropagation

keywords : 어파인 활성화 함수 시그모이드 소프트맥스 오차역전파법 덧셈 곱셈 계층 구현 activation function affine relu sigmoid softmax add multiply backpropagation softmax with loss cross entropy 본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다. "밑바닥부터 시작하는 딥러닝1"

Study/DeepLearning from scratch 2021. 1. 9. 19:08

쉽게 ppt로 정리한 밑바닥 딥러닝1 day 3_3 오차역전법 backpropagation, 연쇄법칙, chain rule, 계산그래프

keywords : 오차역전법 backpropagation 계산그래프 노드 엣지 node edge 연쇄법칙 chain rule 본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다. "밑바닥부터 시작하는 딥러닝1"

Study/DeepLearning from scratch 2021. 1. 2. 17:27

쉽게 ppt로 정리한 밑바닥 딥러닝1 day3_2 신경망, 학습, gradient, loss function

keywords : end to end 신경망 neural network train test holdout 과적합 overfitting mse mean square error cross entropy KL-Divergence loss function minibatch 수치미분 numerical differentiation 해석적미분 analytic differentiation 편미분 partial derivative gradient 기울기 learning rate 가중치 weight 매개변수 하이퍼파라미터 초매개변수 hyperparameter 학습 train 경사하강법 gradient descent 본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다. "밑바닥부터 시작하..

Study/DeepLearning from scratch 2021. 1. 2. 17:21

쉽게 ppt로 정리한 밑바닥 딥러닝1 day3_1 신경망, 활성화함수, batch

keywords : 활성화함수 activation function 시그모이드 sigmoid relu 계단함수 step function 소프트맥스 softmax 신경망 neural network 비선형 함수 non linear 기울기 소실 문제 vanishing gradient dying relu leaky relu dot normalize flatten 순전파 forward 손글씨 숫자 mnist 배치 batch 본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다. "밑바닥부터 시작하는 딥러닝1"

Study/DeepLearning from scratch 2021. 1. 2. 17:17

쉽게 ppt로 정리한 밑바닥 딥러닝1 day2 논리회로 (AND, OR, XOR), 다층 퍼셉트론

keywords : 퍼셉트론 perceptron 다층 퍼셉트론 multi layer perceptron 논리 회로 nand and or xor gate 가중치 weight 편향 bias 뉴런 neuron neural network 신경망 활성화 함수 activation function 본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다. "밑바닥부터 시작하는 딥러닝1"

Study/DeepLearning from scratch 2020. 12. 29. 12:10

쉽게 ppt로 정리한 밑바닥 딥러닝1 day1 numpy(broadcast, indexing), matplotlib

keywords : 넘파이 numpy 배열 array 브로드캐스팅 broadcasting 인덱싱 indexing 팬시인덱싱 fancy indexing matplotlib pyplot 시각화 imread linestyle label legend 본 게시물은 "밑바닥부터 시작하는 딥러닝1"을 공부한 것을 바탕으로 정리한 자료입니다. "밑바닥부터 시작하는 딥러닝1"

Study/DeepLearning from scratch 2020. 12. 28. 19:34

추가 정보

인기글

최신글

페이징

이전
1 2
다음
TISTORY
항상 감사하며 마633 © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바