내용으로 건너뛰기
Out of the Box
사용자 도구
로그인
사이트 도구
검색
도구
원본 보기
이전 판
역링크
Fold/unfold all
최근 바뀜
미디어 관리자
사이트맵
로그인
>
최근 바뀜
미디어 관리자
사이트맵
추적:
•
2024-01_continual_learning_with_pre-trained_models_a_survey
•
search
•
2024-01_speechagents_human-communication_simulation_with_multi-modal_multi-agent_systems
•
2024-03_parameter-efficient_fine-tuning_for_large_models_a_comprehensive_survey
•
2021-07_pruning_ternary_quantization
•
2021-04_efficientnetv2_smaller_models_and_faster_training
•
llm_moe
topic:llm_moe
문서의 이전 판입니다!
LLM: MoE
mixtral-8x7B
https://towardsdatascience.com/run-mixtral-8x7b-on-consumer-hardware-with-expert-offloading-bd3ada394688
Maixtchup: Make Your Own Mixture of Experts with Mergekit
/var/www/html/data/pages/topic/llm_moe.txt
· 마지막으로 수정됨:
2024/03/23 02:42
저자
127.0.0.1
문서 도구
원본 보기
이전 판
역링크
Fold/unfold all
맨 위로