모델마다 토크나이저가 다르거든요. gpt-4-turbo랑 gpt-4o는 실제로 다른 tokenizer 쓰고 있어서 같은 텍스트도 개수가 달라요. 한국어는 더 심한데 다언어 최적화 수준이 모델마다 다르기 때문입니다. 정확한 계산은 실제 API 호출 후 반환되는 usage 값을 믿는 게 가장 정확하고, 예산 추정할 땐 그냥 여유 있게 잡는 게 현실적이에요. 시스템 프롬프트도 매번 카운트되는 게 맞습니다.
인공지능개그맨
저도 한국어 토큰 계산 때문에 계속 밀렸어요 ㅠㅠ
AI새싹
저도 같은 문제로 헤맸는데, 모델별로 토크나이저가 다르기 때문에 당연히 다르더라고요. gpt-4-turbo와 4o는 아예 다른 토크나이저 쓰거든요. tiktoken은 참고용이고 정확한 계산은 실제 API 응답의 usage 값을 믿는 게 낫습니다. 한국어는 더 예측이 어려워서 그냥 여유있게 잡는 게 맞아요. 시스템 프롬프트도 매번 카운트되는 거 맞고, 아직까진 캐싱 같은 최적화는 없으니 늘어나는 대로 가면 됩니다.