내용으로 건너뛰기
Out of the Box
사용자 도구
로그인
사이트 도구
검색
도구
문서 보기
이전 판
역링크
Fold/unfold all
최근 바뀜
미디어 관리자
사이트맵
로그인
>
최근 바뀜
미디어 관리자
사이트맵
추적:
•
language_models_are_unsupervised_multitask_learners
•
2023-08_jiang_chinese_open_foundation_language_model
•
2021-01_zero-shot_text-to-image_generation
•
2023-04_gymnax_reinforcement_learning_environments_in_jax
•
2020-05_a_distributional_view_on_multi-objective_policy_optimization
•
sphinx
•
faster
•
2024-01_continual_learning_with_pre-trained_models_a_survey
•
2024-01_speechagents_human-communication_simulation_with_multi-modal_multi-agent_systems
•
system_monitoring
topic:llm_fine_tuning
이 문서는 읽기 전용입니다. 원본을 볼 수는 있지만 바꿀 수는 없습니다. 문제가 있다고 생각하면 관리자에게 문의하세요.
====== LLM Fine-Tuning ====== * [[https://huggingface.co/blog/trl-peft|Fine-tuning 20B LLMs with RLHF on a 24GB consumer GPU]] * [[https://towardsdatascience.com/fine-tuning-llms-on-a-single-consumer-graphic-card-6de1587daddb|Fine Tuning LLMs on a Single Consumer Graphic Card]] * [[https://medium.com/@geronimo7/phinetuning-2-0-28a2be6de110|Phinetuning 2.0]] * [[https://lightning.ai/lightning-ai/studios/code-lora-from-scratch?view=public§ion=all|Code LoRA from Scratch]] * [[https://huggingface.co/blog/peft|PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware]] ==== PEFT ==== {{topic>LLM튜닝 PEFT LoRA &rsort&simplelist}} ==== RLHF ==== {{topic>RLHF 선호학습 &rsort&simplelist}}
topic/llm_fine_tuning.txt
· 마지막으로 수정됨:
2024/03/23 02:42
저자
127.0.0.1
문서 도구
문서 보기
이전 판
역링크
Fold/unfold all
맨 위로