내용으로 건너뛰기
Out of the Box
사용자 도구
로그인
사이트 도구
검색
도구
문서 보기
이전 판
역링크
Fold/unfold all
최근 바뀜
미디어 관리자
사이트맵
로그인
>
최근 바뀜
미디어 관리자
사이트맵
추적:
•
interpreter
•
2021-10_embodied_intelligence_via_learning_and_evolution
•
2020-05_learning_simulate_dynamic_environments_gamegan
•
2020-10_video_game_level_repair_via_mixed_integer_linear_programming
•
2023-04_generative_agents_interactive_simulacra_of_human_behavior
•
install
•
2016-11_learning_to_act_by_predicting_the_future
•
2024-01_tinyllama_an_open-source_small_language_model
•
2020-07_distributed_associative_memory_network_with_memory_refreshing_loss
•
curl_contrastive_unsupervised_representations_for_reinforcement_learning
topic:llm_moe
이 문서는 읽기 전용입니다. 원본을 볼 수는 있지만 바꿀 수는 없습니다. 문제가 있다고 생각하면 관리자에게 문의하세요.
====== LLM: MoE ====== * mixtral-8x7B * https://towardsdatascience.com/run-mixtral-8x7b-on-consumer-hardware-with-expert-offloading-bd3ada394688 * [[https://towardsdatascience.com/maixtchup-make-your-own-mixture-of-experts-with-mergekit-87cc46401587|Maixtchup: Make Your Own Mixture of Experts with Mergekit]]
topic/llm_moe.txt
· 마지막으로 수정됨:
2024/03/23 02:42
저자
127.0.0.1
문서 도구
문서 보기
이전 판
역링크
Fold/unfold all
맨 위로