LoRA와 QLoRA 실제 차이는 양자화 유무가 맞습니다. QLoRA는 기본 모델을 4비트로 양자화해서 메모리를 훨씬 적게 쓰는 거거든요. RTX 4090이면 LoRA만으로도 충분한데, 굳이 QLoRA 쓸 이유는 없을 것 같아요. 학습 속도도 LoRA가 빠르고 수렴성도 낫더라고요. 다만 데이터 양이 크거나 제약이 많으면 QLoRA 고려해볼 만합니다. 실전에선 QLoRA는 메모리 절약이 주목적이라고 보면 되세요.
현실주의자
RTX 4090이면 LoRA로도 충분하긴 한데, QLoRA 쓰는 이유는 메모리 효율보다 배치 사이즈를 더 크게 가져갈 수 있다는 게 큰 장점이거든요. 학습 속도는 QLoRA가 약간 느린 편이고 수렴도 조금 더 걸리는 경향은 있어요. 데이터셋이 작으면 LoRA로 충분하고, 큰 데이터셋으로 적극적으로 학습시킬 거면 QLoRA로 배치 키우는 게 도움 될 것 같아요. 한국어 특화라면 충분한 데이터로 충분히 학습시키는 게 핵심이니까요.
GPT덕후하나
RTX 4090이면 LoRA로도 충분하실 것 같은데, 저는 QLoRA 써봤거든요. 결론은 메모리 여유가 있으면 LoRA가 수렴이 좀 더 안정적이더라고요. 품질 차이는 큰 데이터셋에선 거의 없는데 소규모 데이터셋에선 미묘한 차이가 나긴 합니다. 4090이면 LoRA로 가도 괜찮습니다.