2026.05.07 접속자 14
로그인 회원가입
HOT
[프롬프트] 논문 읽을 때 유용한 프롬프트 공유합니다 [AI뉴스] 요즘 AI 연구는 "모델 크기 늘리기" 끝, 시스템 효율성으로 가는 중 [프롬프트] 일상 업무 자동화하는 프롬프트 패턴 찾았어요 [AI뉴스] 요즘 GPT-6 출시 소식 들으셨어요? 아직 안 나왔다더라고요 [AI뉴스] 앤스로픽 기업가치 1338조? 오픈AI 추월한다며 어마어마하네요 [프롬프트] 챗봇한테 물어볼 때 이렇게 프롬프트 짜니까 답이 훨씬 낫더라고요 [프롬프트] AI한테 물어볼 때 뭐가 제일 잘 나오는 프롬프트 있나요? [프롬프트] 코드 리뷰 프롬프트 이거 써봤는데 꽤 괜찮더라고요 [AI뉴스] 2026년 AI 뭐가 핫한가... 요즘 뉴스 정리했습니다 [AI뉴스] 요즘 LLM 시장 뭔가 수상한데... 꼭 좋기만 한 게 아니네요 [프롬프트] 논문 읽을 때 유용한 프롬프트 공유합니다 [AI뉴스] 요즘 AI 연구는 "모델 크기 늘리기" 끝, 시스템 효율성으로 가는 중 [프롬프트] 일상 업무 자동화하는 프롬프트 패턴 찾았어요 [AI뉴스] 요즘 GPT-6 출시 소식 들으셨어요? 아직 안 나왔다더라고요 [AI뉴스] 앤스로픽 기업가치 1338조? 오픈AI 추월한다며 어마어마하네요 [프롬프트] 챗봇한테 물어볼 때 이렇게 프롬프트 짜니까 답이 훨씬 낫더라고요 [프롬프트] AI한테 물어볼 때 뭐가 제일 잘 나오는 프롬프트 있나요? [프롬프트] 코드 리뷰 프롬프트 이거 써봤는데 꽤 괜찮더라고요 [AI뉴스] 2026년 AI 뭐가 핫한가... 요즘 뉴스 정리했습니다 [AI뉴스] 요즘 LLM 시장 뭔가 수상한데... 꼭 좋기만 한 게 아니네요

LLM 토큰 개수 세는 게 왜 이렇게 헷갈리죠?

딥러닝장인 2026.04.06 16:35 조회 43 추천 6 댓글 2건
최근에 GPT API 써서 작은 프로젝트 하나 만들고 있는데, 토큰 개수 계산이 자꾸 맞지 않네요. 공식 문서에서는 `tiktoken` 라이브러리로 세라고 했는데, 실제로 API 요청할 때 반환되는 usage 값이랑 자꾸 다르더라고요.

특히 한국어 텍스트 처리할 때 더 심한 것 같은데, 같은 문장인데도 모델마다 토큰 개수가 달라요. gpt-4-turbo는 이렇게 세고 gpt-4o는 저렇게 세는 식으로요. 혹시 이게 정상인 건가요 아니면 제가 잘못 이해하고 있는 건지 모르겠습니다.

비용 추정할 때마다 약간씩 밀려서 예산을 넉넉하게 잡고 있긴 한데, 정확하게 계산하는 방법이 있으면 알려주면 감사하겠습니다. 혹시 프롬프트 토큰이랑 완료 토큰을 따로 집계하셔야 하는 건가요?

아 그리고 시스템 프롬프트도 매번 카운트되는 거 맞죠? 제 생각엔 같은 시스템 프롬프트 여러 번 보낼 때 뭔가 최적화가 있을 것 같은데 제가 착각하는 건가 싶네요.

궁금한 점이 많아서 여쭤봅니다. 경험 많으신 분들 의견 부탁드려요.
추천 6
댓글 2

댓글목록

profile_image
현실주의자
모델마다 토크나이저가 다르거든요. gpt-4-turbo랑 gpt-4o는 실제로 다른 tokenizer 쓰고 있어서 같은 텍스트도 개수가 달라요. 한국어는 더 심한데 다언어 최적화 수준이 모델마다 다르기 때문입니다. 정확한 계산은 실제 API 호출 후 반환되는 usage 값을 믿는 게 가장 정확하고, 예산 추정할 땐 그냥 여유 있게 잡는 게 현실적이에요. 시스템 프롬프트도 매번 카운트되는 게 맞습니다.
profile_image
인공지능개그맨
저도 한국어 토큰 계산 때문에 계속 밀렸어요 ㅠㅠ