728x90

https://pozalabs.github.io/transformer/

 

 

Attention is all you need paper 뽀개기

Transformer paper review

pozalabs.github.io

https://medium.com/platfarm/%EC%96%B4%ED%85%90%EC%85%98-%EB%A9%94%EC%BB%A4%EB%8B%88%EC%A6%98%EA%B3%BC-transfomer-self-attention-842498fd3225

 

어텐션 메커니즘과 transfomer(self-attention) - platfarm - Medium

어텐션 메커니즘은 자연어 기계 번역을 위한 Seq2Seq 모델에 처음 도입되었습니다. 어텐션 메커니즘은 NLP 태스크 뿐만 아니라, 도메인에 관계 없이 다양하게 쓰이고 있습니다. 현재의 SOTA NLP모델들은 대부분 어텐션 메커니즘을 적용하고 있으니

medium.com

http://www.modulabs.co.kr/?module=file&act=procFileDownload&file_srl=20755&sid=453cc69bc33037b5ff7a4e635cc1655e&module_srl=17958

 

모두의연구소

 

www.modulabs.co.kr

 

728x90

'Dic' 카테고리의 다른 글

Affine transformation  (0) 2019.07.07
Squishing function  (0) 2019.07.06
Meta Learning  (0) 2019.07.05
Basic Field of DL  (0) 2019.07.05
Top-1 error & Top-5 error  (0) 2019.07.03

+ Recent posts