일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Stack
- 파이썬
- Sigmoid
- stak
- DeepLearning
- select
- backward
- Python
- Heap
- 자연어처리
- 신경망
- Programmers
- algorithm
- MySQL
- FullyConnectedLayer
- kakao
- affine
- hash
- Word2vec
- skip-gram
- Numpy
- boj
- CBOW
- 프로그래머스
- PPMI
- 딥러닝
- que
- sort
- dl
- SQL
Archives
- Today
- Total
목록backward (1)
혜온의 이것저것

학습되지 않은 신경망은 좋은 추론을 해낼 수 없다. 그래서 학습을 먼저 수행하고, 그 학습된 매개변수를 이용해 추론을 수행하는 흐름이 일반적이다. 신경망의 학습은 최적의 매개변수 값을 찾는 작업이다. 1.3.1 손실함수 신경망 학습에는 학습이 얼마나 잘 되고 있는지를 알기 위한 척도가 필요하다. 일반적으로 학습단계의 특정 시점에서 긴경망의 성능을 나타내느 척도로 손실(loss)을 사용한다. 손실은 학습 데이터와 신경망이 예측한 결과를 비교하여 예측이 얼마나 나쁜가를 산출한 단일 값이다. 신경망의 손실은 손실함수(loss function)를 사용한다. 다중 클래스 분류 신경망에서는 손실함수로 교차 엔트로피 오차(Cross Entropy Error)를 이용한다. 교차 엔트로피 오차는 신경망이 출력하는 각 클..
Deep Learning/밑바닥부터 시작하는 딥러닝2
2022. 1. 25. 11:50