본문 바로가기

어텐션4

NLP 트랜스포머 코드 스터디 리뷰 (3) transformer.py 안녕하세요 블레이즈 테크노트 블레이즈 입니다. 지난 2개의 포스팅에서 Attention is all you need 논문의 코드 중 transformer.py 의 앞부분을 살펴봤습니다. https://blazetechnote.tistory.com/27 NLP 트랜스포머 코드 스터디 리뷰 (1) transformer.py 안녕하세요 블레이즈 테크노트 블레이즈 입니다. 트랜스포머 논문에 대해서는, 제가 지난 여러 포스팅에서 설명했습니다. 어텐션메커니즘1 어텐션메커니즘2 트랜스포머_포지셔널인코딩 트랜스 blazetechnote.tistory.com https://blazetechnote.tistory.com/28 NLP 트랜스포머 코드 스터디 리뷰 (2) transformer.py 안녕하세요 블레이즈 테크노트.. 2023. 8. 21.
NLP 트랜스포머 코드 스터디 리뷰 (2) transformer.py 안녕하세요 블레이즈 테크노트 블레이즈 입니다. 지난 포스팅에서 Attention is all you need 논문의 코드 중 transformer.py 의 앞부분을 살펴봤습니다. 이번 포스팅에서는 transformer.py의 뒷부분을 살펴보도록 하겠습니다. 원 코드는 아래의 링크를 통해 확인해보세요. https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/transformer.py @registry.register_model class TransformerScorer(Transformer): """Transformer model, but only scores in PREDICT mode. Checkpoints between.. 2023. 8. 19.
NMT(인공신경망 기계 번역) 어텐션(Attention)이란? 기초 설명 안녕하세요 블레이즈 테크노트의 블레이즈입니다. 지난 포스트에서 Seq2Seq 모델을 살펴봤습니다. https://blazetechnote.tistory.com/entry/NLP-시퀀스-투-시퀀스-신경망-기계-번역-모델Seq2Seq-Neural-Machine-Translation-기초 NLP 시퀀스 투 시퀀스 신경망 기계 번역 모델(Seq2Seq Neural Machine Translation) 기초 안녕하세요 블레이즈 테크 노트의 블레이즈 입니다. 지난 포스트에서 RNN 순환 신경망을 공부했습니다. 이번에는 RNN을 활용한 시퀀스 투 시퀀스 신경망 기계 번역 모델에 대해서 알아보고자 합 blazetechnote.tistory.com 이 시퀀스 투 시퀀스 모델은 단점이 있었습니다. 바로 인코더에서 디코더로.. 2023. 7. 13.
NLP 시퀀스 투 시퀀스 신경망 기계 번역 모델(Seq2Seq Neural Machine Translation) 기초 안녕하세요 블레이즈 테크 노트의 블레이즈 입니다. 지난 포스트에서 RNN 순환 신경망을 공부했습니다. 이번에는 RNN을 활용한 시퀀스 투 시퀀스 신경망 기계 번역 모델에 대해서 알아보고자 합니다. https://blazetechnote.tistory.com/entry/%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9DML-Recurrent-Neural-Network-%EA%B8%B0%EC%B4%88 머신러닝(ML) Recurrent Neural Network 기초 https://youtu.be/UNmqTiOnRfg 순환 신경망에 대해서 아주 쉽게 설명한 영상입니다. 특히 내가 원하는 정보를 벡터로 변환하는 걸 잘 보여준다고 생각합니다. 영상에서 요리사는 애플파이, 햄버거, 치킨 blazet.. 2023. 7. 11.