일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
Tags
- 파이썬
- SQL
- 신경망
- stak
- dl
- Programmers
- select
- kakao
- Heap
- Sigmoid
- algorithm
- FullyConnectedLayer
- que
- 프로그래머스
- Stack
- affine
- 자연어처리
- CBOW
- Word2vec
- hash
- 딥러닝
- boj
- sort
- backward
- PPMI
- MySQL
- DeepLearning
- skip-gram
- Python
- Numpy
Archives
- Today
- Total
목록skip-gram (1)
혜온의 이것저것
[Chapter 3 word2vec] 5 word2vec 보충 / 6 정리
3.5.1 CBOW 모델과 확률 A라는 현상이 일어날 확률은 P(A)라고 쓰고, 동시 확률은 P(A,B)라고 쓴다. 사후 확률은 P(A|B)로 쓴다. B가 주어졌을 때 A가 일어날 확률 이라고 해석할 수 있다. CBOW 모델을 확률 표기법으로 기술해보자. CBOW 모델이 하는 일은 맥락을 주면 타깃 단어가 출현할 확률을 출력하는 것이다. w_t-1과 w_t+1이 주어졌을 때 타깃이 w_t가 될 확률을 수식으로 쓰면 다음과 같다. w_t-1과 w_t+1이 일어난 후 w_t가 일어날 확률을 뜻한다. 그리고 w_t-1과 w_t+1이 주어졌을 때 w_t가 일어날 확률로 해석할 수 있다. CBOW는 위의 식을 모델링하고 있는 것이다. 1장에서 설명한 교차 엔트로피 오차를 적용하면 다음 식을 유도해낼 수 있다. C..
Deep Learning/밑바닥부터 시작하는 딥러닝2
2022. 6. 8. 11:59