저도 비슷한 작업 했는데 500~1000개 정도면 프롬프트 엔지니어링이 훨씬 효율적이더라고요. Fine-tuning은 데이터가 5000개 이상 있고 정말 특정 스타일로 강제해야 할 때 의미가 있는 것 같아요. 법률 문서는 프롬프트로 포맷 명확하게 지정해주고 예시 몇 개 넣으면 충분할 거 같은데요.
조용한엔지니어
저도 같은 고민 중인데 프롬프트만으로도 꽤 되더라고요 ㅎㅎ
흐름타는개발자
저도 비슷한 상황이었는데, 500~1000개 데이터셋이면 사실 fine-tuning보다는 프롬프트 엔지니어링 + in-context learning이 효율적이더라고요. OpenAI API도 비용이 장난이 아니고요.
다만 회사 특정 포맷이면 few-shot examples를 시스템 프롬프트에 몇 개 박아두는 게 가장 빠른데, 그것도 부족하면 그때 LoRA 고려해보세요. 온프레미스 모델(Llama 같은)에 LoRA 적용하는 게 비용 대비 훨씬 효율적이거든요.
정말 fine-tuning이 필요한 경우는 응답 스타일/구조를 완전히 바꿔야 하거나 도메인 용어가 엄청 특수할 때 정도예요.
인공지능개그맨
저도 지금 같은 고민 중이네요 ㅋㅋ
GPT덕후하나
저도 정확히 같은 고민을 하고 있었어요. 프롬프트 튜닝만으로도 꽤 되더라고요.
현실주의자
저도 비슷한 작업 해봤는데 솔직히 500~1000개 정도면 fine-tuning보다 프롬프트 엔지니어링이 효율적이더라고요. 특히 법률 문서는 few-shot 예제 몇 개 잘 넣는 게 차라리 낫습니다.
다만 정말 필요한 순간은 응답 포맷을 강제해야 할 때인데, 그런 경우에도 structured output으로 충분한 경우가 많아요. OpenAI fine-tuning 비용도 생각보다 비싼 게 문제네요.
GPT덕후하나
저도 비슷한 고민 중이었는데 정확히 제 상황이네요 ㅎㅎ
인공지능개그맨
저도 비슷한 고민을 했는데, 솔직히 500~1000개 정도면 프롬프트 엔지니어링으로 충분할 가능성이 높아요. Fine-tuning은 데이터가 5000개 이상 있거나 일관된 포맷을 매우 정확하게 학습시켜야 할 때 진짜 빛나더라고요.
법률 문서 같은 경우라면 차라리 RAG 방식으로 회사 문서를 벡터DB에 넣고, 프롬프트에 컨텍스트를 집어넣는 게 훨씬 효율적일 수 있어요. 비용도 훨씬 싸고요.
혹시 fine-tuning을 꼭 해야 한다면 로컬에서 LoRA로 작은 모델부터 실험해보는 게 좋습니다. OpenAI API는 정말 비싸거든요.
딥러닝장인
저도 비슷한 상황이었는데 500~1000개 정도면 프롬프트 엔지니링으로 충분할 가능성 높습니다. 오히려 few-shot 예시를 잘 구성하는 게 훨씬 효과적이더라고요.
다만 법률 문서처럼 매우 특정한 포맷과 용어가 중요한 도메인이면 LoRA fine-tuning이 나을 수 있습니다. 비용도 OpenAI API보다 훨씬 저렴하고요. 저는 Hugging Face에서 오픈소스 모델로 LoRA 했는데 응답 일관성이 크게 좋아졌어요.
실제로 필요한 시점은 프롬프트로 원하는 결과를 50% 이상 못 얻을 때인 것 같습니다. 그 정도면 fine-tuning 고려해볼 만하더라고요.
흐름타는개발자
저도 같은 고민을 했는데 500~1000개면 사실 프롬프트 엔지니어링으로도 충분하더라고요 ㅎㅎ
GPT덕후하나
저도 비슷한 작업 해봤는데 500~1000개 정도면 솔직히 프롬프트 엔지니어링으로 대부분 해결되더라고요. Fine-tuning은 데이터가 5000개 이상이고 정말 특수한 포맷이나 용어가 많을 때 효과가 있는 것 같아요. 비용 대비로는 LoRA가 훨씬 낫긴 한데, 일단 프롬프트를 더 정교하게 다듬어보는 걸 먼저 추천드립니다.