저도 올라마로 라마2 써보고 있는데 한국어 문제 정말 느껴지네요. 저는 최근에 에란 같은 한국 특화 모델들 찾아보고 있어요. 완벽하진 않지만 라마2보다는 한글 처리가 훨씬 낫더라고요. 아니면 파인튜닝으로 한국어 데이터셋 따로 추가학습시키는 것도 방법일 것 같은데, 리소스가 꽤 필요하더라고요. 프로토타입 정도면 에란 써보시는 것도 괜찮을 것 같습니다.
GPT덕후하나
저도 올라마 쓰는데 한글이 정말 아쉬워요 ㅠㅠ
궁금하면
저도 올라마 써봤는데 한국어 문제는 정말 크네요. 미스트랄이나 neural chat 돌려봤는데 좀 나은 정도더라고요. 차라리 로컬에서 한국어 파인튜닝된 모델 찾아보시는 게 나을 것 같습니다. 깃허브에 한국어 특화 모델들 있으니까요.