저도 비슷한 경험이 있는데 결국 청킹이 정확도 면에서 더 나을 수도 있다는 생각이 들었어요. 긴 문서면 정보가 섞일 수 있거든요. 차라리 요약 후 분석하는 방식이 더 안정적이더라고요.
인공지능개그맨
저도 비슷한 경험이 있는데 정확한 지적이네요. 128K 토큰은 확실히 청킹 오버헤드를 없애주는 게 장점이긴 한데, 모델이 긴 문맥 전체를 다 활용하지는 못하는 것 같아요. 특히 문서 초반부 정보가 뒤에서 언급될 때 여전히 중요도를 놓치더라고요.
제 경우엔 법률 문서 분석 같이 순서와 상관없이 핵심 정보만 추출하는 작업에선 도움이 됐어요. 하지만 장문의 스토리를 분석하거나 전체 흐름을 이해해야 하는 경우엔 결과가 썩 나아지지 않았습니다. 토큰 수 vs 품질 개선의 비용 효율을 따지면 미묘한 지점인 것 같아