40

LoRA 원리: 70억 개 중 6만 개만 바꾸는 마법

파인튜닝 개요 & LoRA/QLoRA

학습 목표

LoRA의 저랭크 분해(Low-Rank Decomposition) 직관을 이해한다 r(랭크), alpha, target_modules의 의미를 파악한다 LoRA가 적용되는 Transformer 레이어를 안다

LoRA: Low-Rank Adaptation

핵심 아이디어를 비유로 이해하기

김대리: "7B 모델의 70억 파라미터를 다 수정해야 하는 거예요?"

박선배: "아니, 생각해봐. 너가 영어를 할 줄 아는 상태에서 일본어를 배운다고 치자. 뇌 전체를 바꿀 필요 없잖아? 언어 처리 부분만 조금 바꾸면 돼. LoRA도 같은 원리야. 변화에 필요한 부분만 효율적으로 수정하는 거지."

수학적 원리 (간단 버전)

에디터 로딩 중...

왜 이게 가능한가? - 저랭크 가설

"파인튜닝 시 가중치 변화(deltaW)는 실제로 저차원에서 일어난다."

  • LoRA 논문 (Hu et al., 2021)
에디터 로딩 중...

핵심 하이퍼파라미터

1. r (랭크) - 가장 중요!

에디터 로딩 중...

2. lora_alpha (스케일링)

에디터 로딩 중...

3. target_modules (어디에 적용?)

에디터 로딩 중...

LoRA 적용 시각화

에디터 로딩 중...

파라미터 수 계산 실습

에디터 로딩 중...
핵심 포인트
  • LoRA: deltaW = B x A (저랭크 분해로 파라미터 99%+ 절약)
  • r=16, alpha=32가 제조 도메인 파인튜닝 표준 설정
  • target_modules: q_proj, k_proj, v_proj, o_proj (최소)
  • 추론 시 병합하면 원래 모델과 동일한 속도