[Week 4- Day 1] 회고
2022. 2. 7. 22:50ㆍAbout Me/AI Tech
# DL 연구를 볼 때 주목할 포인트
- data : that the model can learn from
- model : how to transform the data (ex. AlexNet, GoogLeNet, ResNet, LSTM, Deep Auto Encoders, GAN 등)
- loss function : that quantifies the badness of the model
- 회귀 : MSE
- 분류 : CE
- 확률 : MLE
- algorithm : to adjust the parameters to minimize the loss (ex. SGD, Adam, RAdam 등)
# Regularization (정규화)(규제)
- Dropout
- Early Stopping
- K-Fold Validation
- Weight Decay
- Batch Normalization
- Mix up
- Ensemble
- Baysian Optimization
# Matrix
: to regard it as a mapping between two vector spaces.
X(10*1) =={W, b}==> y(3*1)
y(3*1) = W.T(10*3)*X(10*1) + b(10*1)
## 피어 세션
같은 입력유닛에 대해 다른 히든유닛의 초기값이 동일하면 안좋다고 한다.
왜 그런지 질문을 했는데, 서로 다른 역할을 하는 유닛이면 그에 맞는 최적의 초기값으로 하는 게 좋다.
또 실험을 할 때, 다른 히든유닛에 대해 같은 값으로 초기화한다면, 실험을 하는 이유가 사라진다.
초기값을 잘 잡는게 중요한 모델이 있어서, 이와 관련된 여러 테크닉도 존재한다고 한다.
다른 분들도 질문하고, 대화하는 걸 보았는데, 내가 정말 안일하게 코드를 넘기고 있었구나 느꼈다.
이제 본격적으로 프로젝트 주간이 다가오고 있다.
코드를 위주로 잘 정리해봐야겠다.
또 내가 너무 친절한 거 아닌가 하는 생각도 든다. 이젠 어느정도 ML에 관심많은 사람을 대상으로 포스팅하자.
반응형
'About Me > AI Tech' 카테고리의 다른 글
[Week 4- Day 3] 회고 (0) | 2022.02.09 |
---|---|
[Week 4- Day 2] 회고 (0) | 2022.02.08 |
[Week 3- Day 2] 회고 (0) | 2022.02.06 |
SymPy로 함수 식의 미분 구하기 (0) | 2022.02.05 |
경사하강법(Gradient_Descent)으로 선형회귀 문제 풀기 (0) | 2022.02.03 |