Learning to Learn

  • 분류 전체보기 (215)
    • Research Note (0)
      • KD for openset (0)
      • instance learning for opens.. (0)
      • Use Background as openset (0)
      • Vision Transformer (0)
      • Apply Fourier Transform Sam.. (0)
      • Check Openset sample model (0)
    • Paper (34)
      • Openset recogniton (8)
      • Out-of-distribution (2)
      • Imbalanced data (7)
      • Semi-Supervised learning (1)
      • Unsupervised learning (9)
      • Knowledge distillation (1)
      • ETC (6)
    • Project (0)
      • ICT (0)
      • LG (0)
      • AI Challenge (0)
    • Tutorial (1)
    • Code (2)
    • Deep learning (1)
    • Math (6)
      • Linear Algebra (1)
      • Baysian learning (1)
      • Causal Inference (3)
      • Optimizaiton (1)
    • Python (25)
    • Algorithm (0)
    • Pytorch (8)
    • Terminal (13)
    • Docker (4)
    • CUDA (1)
    • Dic (102)
  • 홈
  • 태그
  • 방명록
/ /

information theory

2019. 7. 23. 14:34
728x90

https://reniew.github.io/17/

 

정보이론 : 엔트로피, KL-Divergence

An Ed edition

reniew.github.io

 

https://kangbk0120.github.io/articles/2018-03/information-theory

 

Information Theory에 대한 정리

Information Theory Deep Learning Book Ch.3은 Probability and Information Theory라는 제목입니다. 오늘 발제는 이 중에서도 Information Theory에 대해서 초점을 맞춰서 진행해보려고 합니다. 정보 이론은 말 그대로, 정보라는 개념을 구체화/수치화했다고 생각하시면 됩니다. 이때 가장 기본적인 개념은 드물게 일어나는 사건일수록, 자주 일어나는 사건에 비해 더 많은 정보를 담고 있다는 것입니

kangbk0120.github.io

PRML , Deep Learning book 참고

728x90

'Dic' 카테고리의 다른 글

Maximum likelihood estimation  (0) 2019.07.24
Hard negative mining  (0) 2019.07.23
F-measure  (0) 2019.07.22
Affinity Propagation  (0) 2019.07.21
logit , sigmoid, softmax  (0) 2019.07.11

+ Recent posts

Powered by Tistory, Designed by wallel
Rss Feed and Twitter, Facebook, Youtube, Google+

티스토리툴바