20

Day 1 이해도 점검: LoRA/QLoRA 핵심 개념

파인튜닝 개요 & LoRA/QLoRA

8문제

Q1. LoRA에서 "Low-Rank"가 의미하는 것은?

Q2. QLoRA의 NF4(NormalFloat 4-bit)가 일반 4비트 양자화보다 우수한 이유는?

Q3. 7B 모델을 QLoRA로 학습할 때 최소 필요한 VRAM은 약?

Q4. LoRA 설정에서 r=16, lora_alpha=32일 때 스케일링 계수는?

Q5. 파인튜닝 대신 RAG가 더 적합한 상황은?

Q6. Unsloth가 QLoRA 학습을 가속하는 주요 방법은?

Q7. LoRA의 target_modules에 ["q_proj", "k_proj", "v_proj", "o_proj"]를 지정하는 이유는?

Q8. QLoRA에서 "이중 양자화(Double Quantization)"란?