2022. 3. 8. 00:26ㆍAbout Me/AI Tech
# 단어의 가방
문장 및 문단을 표현하기 위해 one-hot encoding을 사용하여, 단어들을 임베딩한 것
(Step 1) vocabulary 생성
문장 : "John은 정말 정말 당신을 정말 좋아해요", "Jane은 영화를 좋아해요"어휘: {"존", "진짜", "좋아요", "너", "제인", "the", "movie"}
(Step 2) one-hot encoding 으로 Vector로 표현
전. "정말" = [0 1 0 0 ... ]단어 의미에 상관없이 같은 형태의 공간으로 매핑따라서 각 단어의 distance는 √2 이고, 각 단어의 cosine similarity 는 0 임
(3단계) 문장/문서 표현 (= 단어 자루)
전. "존 정말 ..." = [1 2 1 1 0 ... ]
# 나비 베이지색 분류기
(Step 1) Bayes' Rule 적용
C_MAP = argmax P(c|d) = argmax P(d|c)P(c) / P(d) = argmax P(d|c)P(c)
(Step 2) 조건부 독립 가정
P(d|c)P(c) = P(w_1, w_2, ... w_n)P(c) = P(c) ∏P(w_i |c)
(Step 3) 문석
## 피어 세션
미션 : 해야할 일
어떤 식으로 처리해였는지
강조
하고 싶은 점본인이 수행한 일은 무엇인지어떤 점이 다음 활동에 도움이 되는 것같은지
왜 자꾸 마음대로 번역되는 건지!!! ??
'About Me > AI Tech' 카테고리의 다른 글
[Week 8- Day 4] 회고 (0) | 2022.03.10 |
---|---|
[Week 8- Day 2] 회고 (0) | 2022.03.10 |
[Week 7- Day 5] 회고 (0) | 2022.03.05 |
[Week 7- Day 2] 회고 (0) | 2022.03.02 |
[Week 7- Day 1] 회고 (0) | 2022.03.01 |