최근 딥러닝 논문들을 보면 단순히 모델의 크기를 키우는 확장을 넘어, 시스템적 안정성, 복잡한 정보의 구조적 처리, 그리고 아키텍처의 근본적 효율성을 고민하는 방향으로 나아가고 있다고 해요. 솔직히 예전엔 큰 모델이 다 좋다고 생각했는데 요새는 다르더라고요.
RAG 시스템도 진화하고 있는데, 단순한 텍스트 매칭을 넘어 검색 결과의 품질과 맥락을 능동적으로 제어하는 고도화된 RAG가 나오고 있어요. AgentIR 같은 경우는 에이전트의 검색 의도와 추론 과정을 검색기에 직접 반영해서 다단계 탐색 환경에서의 정확도를 크게 높였다고 합니다.
무엇보다 모델의 덩치를 무작정 키우기보다, 훈련 및 추론 과정의 자원 소모를 극적으로 줄이는 '가성비' 높은 최적화 기법들이 두드러지고 있다고 해요. 예를 들어 단 13개의 훈련 매개변수만으로도 모델의 추론 성능을 90% 이상 회복하는 방법도 나왔다고 합니다. 이게 되나 싶으면서도 신기하네요 ㅎㅎ