2026.05.02 접속자 21
로그인 회원가입
HOT
[AI뉴스] 요즘 LLM 너무 많이 나오는데 뭘 써야 하나요? [AI뉴스] 2026년 AI 산업 핵심은 큰 모델이 아니라 시스템 수준의 경쟁이네요 [프롬프트] 업무 보고서 쓸 때 써먹는 프롬프트 공유합니다 [AI뉴스] OpenAI, 14일에 GPT-6 출시... 이번엔 진짜 달라질까 [AI뉴스] 요즘 AI 기술 발전 속도가 미친 수준인데, 따라가기가 힘드네요 [프롬프트] 긴 문서 분석할 때 프롬프트 어떻게 짜시나요? [기술 Q&A] 요즘 LLM 컨텍스트 윈도우 경쟁이 좀 이상하지 않나요? [AI뉴스] 2026년 AI 산업, 에이전트 시대와 피지컬 AI가 본격화되는 중 [프롬프트] ChatGPT한테 같은 질문을 여러 번 해도 답변이 자꾸 달라지는데 이게 정상인가요? [프롬프트] 코드 리뷰 요청할 때 프롬프트 이렇게 해보세요 [AI뉴스] 요즘 LLM 너무 많이 나오는데 뭘 써야 하나요? [AI뉴스] 2026년 AI 산업 핵심은 큰 모델이 아니라 시스템 수준의 경쟁이네요 [프롬프트] 업무 보고서 쓸 때 써먹는 프롬프트 공유합니다 [AI뉴스] OpenAI, 14일에 GPT-6 출시... 이번엔 진짜 달라질까 [AI뉴스] 요즘 AI 기술 발전 속도가 미친 수준인데, 따라가기가 힘드네요 [프롬프트] 긴 문서 분석할 때 프롬프트 어떻게 짜시나요? [기술 Q&A] 요즘 LLM 컨텍스트 윈도우 경쟁이 좀 이상하지 않나요? [AI뉴스] 2026년 AI 산업, 에이전트 시대와 피지컬 AI가 본격화되는 중 [프롬프트] ChatGPT한테 같은 질문을 여러 번 해도 답변이 자꾸 달라지는데 이게 정상인가요? [프롬프트] 코드 리뷰 요청할 때 프롬프트 이렇게 해보세요
오류해결

요즘 로컬 LLM 돌려보신 분들 어떤 거 쓰세요?

오늘도살자 2026.05.02 13:38 조회 1 추천 0 댓글 0건
회사 보안 때문에 클라우드 기반 AI 서비스를 못 쓰게 돼서 한 달 전부터 로컬 LLM 가지고 놀고 있는데, 생각보다 선택지가 많더라고요. 처음엔 라마2 돌려봤는데 정확도가 좀 아쉬웠어요. 그래서 지금은 미스트랄이랑 솔라 모델을 번갈아 쓰고 있습니다.

특히 솔라가 그럭저럭 괜찮더라고요. 한국어 처리도 꽤 자연스럽고, 토큰 출력 속도도 내 RTX 3090에서는 충분히 쓸만한 수준이거든요. 근데 매번 프롬프트를 튜닝해야 하는 게 좀 번거롭습니다. 클라우드 기반 API 쓸 땐 생각 안 하던 문제네요.

가장 큰 문제는 메모리인데, 8비트 퀀타이제이션을 써도 한두 개의 탭에서 컨텍스트 윈도우가 자꾸 터진다는 게 거슬려요. 큰 파일 코드 분석을 할 땐 여전히 답답합니다. 그래서 최근에 이글 7B 시리즈도 시도해봤는데 이건 더 못하더라고요 ㅎㅎ

혹시 프로덕션 환경에서 로컬 LLM 운영하시는 분 계신가요? 어떤 모델 쓰세요? 그리고 컨텍스트 윈도우 문제는 어떻게 해결하셨나 궁금합니다. 혹은 애초에 로컬로는 포기하고 온프레미스 서버 구축하신 분도 있나요?
추천 0 비추천 0
댓글 0

댓글목록

아직 댓글이 없습니다. 첫 댓글을 남겨보세요!