일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- CNN
- SQLD
- 밑바닥부터 시작하는 딥러닝
- dropout
- mask r-cnn
- computer vision
- Adam
- Transformer
- Alexnet
- deep learning
- Baekjoon
- DFS
- 딥러닝
- assignment1
- Generative Models
- Optimization
- do it! 알고리즘 코딩테스트: c++편
- BFS
- Algorithm
- assignment2
- 밑바닥부터 시작하는 딥러닝2
- Multi-Head Attention
- marchine learning
- C++
- RNN
- cs231n
- CPP
- Python
- Regularization
- Machine Learning
- Today
- Total
목록2. Artificial Intelligence/밑바닥부터 시작하는 딥러닝 (10)
newhaneul

본 포스팅은 밑바닥부터 시작하는 딥러닝1을 토대로 공부한 내용을 정리하기 위한 포스팅입니다. 해당 도서에 나오는 Source Code 및 자료는 GitHub를 참조하여 진행하였습니다. GitHub - oreilly-japan/deep-learning-from-scratch: 『ゼロから作る Deep Learning』(O'Reilly Japan, 2016)『ゼロから作る Deep Learning』(O'Reilly Japan, 2016). Contribute to oreilly-japan/deep-learning-from-scratch development by creating an account on GitHub.github.com 6.1 매개변수 갱신 지금까지 공부한 신경망 학습의 목적은 손실 함수의 값을 ..

본 포스팅은 밑바닥부터 시작하는 딥러닝1을 토대로 공부한 내용을 정리하기 위한 포스팅입니다. 해당 도서에 나오는 Source Code 및 자료는 GitHub를 참조하여 진행하였습니다. https://github.com/oreilly-japan/deep-learning-from-scratch 5.2 연쇄법칙 순전파는 계산 결과를 왼쪽에서 오른쪽으로 전달하는 것이다. 한편 역전파는 ‘국소적인 미분’을 순방향과는 반대인 오른쪽에서 왼쪽으로 전달한다. 또한, 이 ‘국소적 미분’을 전달하는 원리는 연쇄법칙(chain rule)에 따른 것이다. [그림 5-6]과 같이 역전파의 계산 절차는 신호 E에 노드의 국소적 미분을 곱한 후 다음 노드로 전달하는 것이다. 여기에서 말하는 국소적 미분은 순전파 때의 y = f(x..