Recent Posts

[논문리뷰] Attention Is All You Need (NeurIPS 2017)

11 minute read

요약: 본 논문에서는 복잡한 순환 신경망이나 합성곱 신경망 대신 주의 메커니즘에만 기반한 새로운 네트워크 아키텍처인 Transformer를 제안하며, 이것이 기계 번역 작업에서 높은 품질과 더 빠른 훈련 시간을 보임을 보여준다.