사용자 도구

사이트 도구


review:2020-08_transformers_rnns_fast_autoregressive_linear_attention

차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판이전 판
다음 판
이전 판
review:2020-08_transformers_rnns_fast_autoregressive_linear_attention [2021/12/11 08:15] rex8312review:2020-08_transformers_rnns_fast_autoregressive_linear_attention [2024/03/23 02:42] (현재) – 바깥 편집 127.0.0.1
줄 3: 줄 3:
   * https://arxiv.org/pdf/2006.16236.pdf   * https://arxiv.org/pdf/2006.16236.pdf
   * https://slideslive.com/38927987/transformers-are-rnns-fast-autoregressive-transformers-with-linear-attention?ref=account-60259-popular   * https://slideslive.com/38927987/transformers-are-rnns-fast-autoregressive-transformers-with-linear-attention?ref=account-60259-popular
 +  * https://github.com/idiap/fast-transformers
  
 {{tag>transformer reformer efficient_transformer autoregression "Angelos Katharopoulos" "François Fleuret" ICML 2020}} {{tag>transformer reformer efficient_transformer autoregression "Angelos Katharopoulos" "François Fleuret" ICML 2020}}
review/2020-08_transformers_rnns_fast_autoregressive_linear_attention.1639210515.txt.gz · 마지막으로 수정됨: (바깥 편집)