내용으로 건너뛰기
Out of the Box
사용자 도구
로그인
사이트 도구
검색
도구
원본 보기
이전 판
Fold/unfold all
역링크
최근 바뀜
미디어 관리자
사이트맵
로그인
>
최근 바뀜
미디어 관리자
사이트맵
추적:
•
2023-12_speeding_up_the_gpt_-_kv_cache
•
2024-01_self-rewarding_language_models
•
a_self-tuning_actor-critic_algorithm
•
2021-07_pruning_ternary_quantization
•
2024-02_more_agents_is_all_you_need
•
generative_pretraining_from_pixels
•
2021-07_epistemic_neural_networks
•
2021-02_first_return_then_explore
•
2023-01_gpt_in_60_lines_of_numpy
•
2021-03_pay_attention_to_mlps
review:2021-03_pay_attention_to_mlps
2021-03 Pay Attention to MLPs
https://arxiv.org/abs/2105.08050
gMLP
,
MLP
,
transformer
,
Google
,
Hanxiao Liu
,
Quoc V. Le
,
2021
review/2021-03_pay_attention_to_mlps.txt
· 마지막으로 수정됨: 2024/03/23 02:42 저자
127.0.0.1
문서 도구
원본 보기
이전 판
역링크
Fold/unfold all
맨 위로