728x90
https://pozalabs.github.io/transformer/
Attention is all you need paper 뽀개기
Transformer paper review
pozalabs.github.io
어텐션 메커니즘과 transfomer(self-attention) - platfarm - Medium
어텐션 메커니즘은 자연어 기계 번역을 위한 Seq2Seq 모델에 처음 도입되었습니다. 어텐션 메커니즘은 NLP 태스크 뿐만 아니라, 도메인에 관계 없이 다양하게 쓰이고 있습니다. 현재의 SOTA NLP모델들은 대부분 어텐션 메커니즘을 적용하고 있으니
medium.com
모두의연구소
www.modulabs.co.kr
728x90
'Dic' 카테고리의 다른 글
Affine transformation (0) | 2019.07.07 |
---|---|
Squishing function (0) | 2019.07.06 |
Meta Learning (0) | 2019.07.05 |
Basic Field of DL (0) | 2019.07.05 |
Top-1 error & Top-5 error (0) | 2019.07.03 |