728x90
https://brunch.co.kr/@elicecoding/37
컴공생의 AI 스쿨 필기 노트 ④ 교차 검증과 정규화
Cross Validation & Regularization | 지금까지 Linear Regression, Logistic Regression 모델을 만들어보았는데요. 우리가 만든 모델이 과연 잘 만들어진 모델이라고 볼 수 있을까요? 이를 알기 위해서 이번 4주차 수업에서는 우리가 만든 모델의 적합성을 보다 객관적으로 평가하기 위한 방법으로 교차 검증(Cross Validation)과 정규화(Regularization)
brunch.co.kr
728x90
'Dic' 카테고리의 다른 글
inductive bias (0) | 2019.08.07 |
---|---|
Mahalanobis distance (0) | 2019.07.29 |
Understanding Categorical Cross-Entropy Loss, Binary Cross-Entropy Loss, Softmax Loss, Logistic Loss, Focal Loss and all those confusing names (0) | 2019.07.29 |
Understanding Ranking Loss, Contrastive Loss, Margin Loss, Triplet Loss, Hinge Loss and all those confusing names (0) | 2019.07.26 |
Contrastive loss (0) | 2019.07.25 |