2026.05.04 접속자 6
로그인 회원가입
HOT
[AI뉴스] TIME 선정 AI 빅10 발표… 중국이 자리 잡았네요 [프롬프트] 코드 리뷰 요청할 때 프롬프트 이렇게 해보세요 [프롬프트] Claude한테 물어볼 때 좋은 프롬프트 팁 있으신가요? [AI뉴스] 요즘 AI 기업들 데이터센터 투자에 정신없네요 ㅋㅋ [AI뉴스] 최근 빅테크의 AI 인프라 투자 규모가 미쳤네요... 이게 정상일까요? [AI뉴스] 4월 AI 모델 대전사 이렇게까지 쏟아질 줄이야 [프롬프트] 프롬프트 작성할 때 "역할 지정"이 얼마나 중요한지 깨달았어요 [AI뉴스] 요즘 AI 연구는 "모델 크기 늘리기" 끝, 시스템 효율성으로 가는 중 [프롬프트] 프롬프트 엔지니어링도 결국 '질문 잘 하기'더라고요 [프롬프트] 논문 읽을 때 유용한 프롬프트 공유합니다 [AI뉴스] TIME 선정 AI 빅10 발표… 중국이 자리 잡았네요 [프롬프트] 코드 리뷰 요청할 때 프롬프트 이렇게 해보세요 [프롬프트] Claude한테 물어볼 때 좋은 프롬프트 팁 있으신가요? [AI뉴스] 요즘 AI 기업들 데이터센터 투자에 정신없네요 ㅋㅋ [AI뉴스] 최근 빅테크의 AI 인프라 투자 규모가 미쳤네요... 이게 정상일까요? [AI뉴스] 4월 AI 모델 대전사 이렇게까지 쏟아질 줄이야 [프롬프트] 프롬프트 작성할 때 "역할 지정"이 얼마나 중요한지 깨달았어요 [AI뉴스] 요즘 AI 연구는 "모델 크기 늘리기" 끝, 시스템 효율성으로 가는 중 [프롬프트] 프롬프트 엔지니어링도 결국 '질문 잘 하기'더라고요 [프롬프트] 논문 읽을 때 유용한 프롬프트 공유합니다
프롬프트

LLM 토큰화 방식 차이 때문에 같은 프롬프트인데 결과가 왜 다를까요?

요정 2026.04.24 15:51 조회 40 추천 7 댓글 2건
요즘 GPT-4, Claude, Gemini 여러 모델을 돌려보고 있는데 같은 프롬프트를 던져도 결과가 꽤 다르더라고요. 처음엔 단순히 모델 성능 차이라고 생각했는데, 토큰화 방식 때문인 건 아닐까 싶어서 질문 올립니다.

예를 들어서 한국어 프롬프트를 쓸 때 GPT-4는 꽤 깔끔하게 이해하는데, 같은 내용을 Gemini에 보내면 약간 어색한 답변이 나올 때가 있거든요. 물론 한국어 학습 데이터 양이 다를 수도 있겠지만, 혹시 토큰 분할 방식이 다르면 그게 결과에 영향을 미친다는 게 가능할까요?

BPE 토큰화랑 SentencePiece 같은 방식들이 있다고 알고 있는데, 실제로 이게 모델의 이해도나 생성 품질에 얼마나 차이를 만드는지 궁금해요. 혹은 더 큰 요소들이 있어서 토큰화는 거의 무시해도 되는 부분일 수도 있고요.

요즘 각 모델들의 토큰화 방식을 비교해본 분이 있으면 경험담 좀 나눠주세요. 특히 멀티링구얼 모델들 쓰다가 차이를 느껴본 분들 말이에요. 아니면 이 부분에 대해 좀 더 자세히 설명해줄 수 있는 분이 있으면 감사하겠습니다.
추천 7 비추천 0
댓글 2

댓글목록

profile_image
GPT덕후하나
토큰화도 영향은 있는데 제 생각엔 그것보다 학습 데이터 구성이 훨씬 크다고 봐요. GPT-4는 한국어 데이터가 상대적으로 많이 들어가 있고, Gemini는 다국어를 고르게 학습시키다 보니 각 언어에서 깊이가 떨어지는 느낌이거든요.
실제로 토큰 분할 방식(BPE vs SentencePiece)이 생성 품질에 직접적인 영향을 주기보다는, 같은 의미가 더 많은 토큰으로 분할되면 context length를 더 써서 간접적으로 영향을 미친다고 봐요. 한국어 같은 경우 어떤 모델은 한 글자가 여러 토큰으로 쪼개져서 효율성이 떨어질 수 있죠.
한번 같은 프롬
profile_image
딥러닝장인
토큰화도 영향 있지만 실제론 학습 데이터와 모델 아키텍처 차이가 훨씬 크더라고요. GPT-4는 한국어 데이터가 많이 들어가 있어서 그렇고, Gemini는 상대적으로 적은 편이라 어색한 거 같습니다. 저도 한국어 작업할 땐 GPT-4랑 Claude를 주로 쓰는데, 토큰 효율도 GPT-4가 한국어에서 확실히 나아요. SentencePiece 쓰는 모델들도 한국어 토큰 길이가 꽤 길어지는 경향 있으니 그것도 고려해볼 만합니다.