✅20분
Day 1 이해도 점검: LoRA/QLoRA 핵심 개념
파인튜닝 개요 & LoRA/QLoRA
Day 1 이해도 점검: LoRA/QLoRA 핵심 개념
QLoRA 파인튜닝 > 파인튜닝 개요 & LoRA/QLoRA
8문제
Q1. LoRA에서 "Low-Rank"가 의미하는 것은?
Q2. QLoRA의 NF4(NormalFloat 4-bit)가 일반 4비트 양자화보다 우수한 이유는?
Q3. 7B 모델을 QLoRA로 학습할 때 최소 필요한 VRAM은 약?
Q4. LoRA 설정에서 r=16, lora_alpha=32일 때 스케일링 계수는?
Q5. 파인튜닝 대신 RAG가 더 적합한 상황은?
Q6. Unsloth가 QLoRA 학습을 가속하는 주요 방법은?
Q7. LoRA의 target_modules에 ["q_proj", "k_proj", "v_proj", "o_proj"]를 지정하는 이유는?
Q8. QLoRA에서 "이중 양자화(Double Quantization)"란?