최근 며칠간 AI 관련 뉴스들 보다 보니 확실히 분위기가 바뀐 것 같아요. GPT-4o, 제미나이 2.5 Pro, 클로드 3.7 등이 최상위권에서 경쟁하며 전반적인 성능이 크게 향상되었는데, 이제는 범용적인 능력 외에 특정 분야(코딩, 추론, 멀티 모달 등)에서의 강점을 보고 선택하는 경향이 뚜렷해지고 있다고 하네요. 예전처럼 벤치마크 점수로 명확하게 1등 모델을 정하는 시대는 지나간 거 같아요.
주요 모델 간 리더십은 과제 유형과 평가 기준에 따라 OpenAI, Google, Anthropic 사이에서 지속적으로 이동하고 있으며, 최근 벤치마크에서는 Google의 Gemini 3 Pro가 종합 성능에서 강점, Anthropic의 Claude 모델이 코딩 특화 작업에서 우위를 보이고 있다고 해요. 진짜 "뭐가 최고다"라고 외칠 수 없는 시대가 온 거죠 ㅎㅎ
그리고 더 흥미로운 건 기업 입장에서의 변화예요. 2026년에 이르면 LLM은 더 이상 단순한 벤치마크 점수만으로 평가되지 않으며, 대신 안정적인 성과 제공, 거버넌스 제약 하 운영 가능성, 엔터프라이즈 워크플로 통합 깊이가 핵심 평가 기준이 된다네요. 요즘 회사들이 AI 도입할 때 성능도 성능지만 얼마나 안정적이고 관리 가능한지를 더 중요하게 보는 거 맞다는 생각이 들어요.