2026.05.03 접속자 18
로그인 회원가입
HOT
[기술 Q&A] 요즘 LLM 컨텍스트 윈도우 경쟁이 좀 이상하지 않나요? [AI뉴스] 2026년 AI 산업, 에이전트 시대와 피지컬 AI가 본격화되는 중 [AI뉴스] 2026년 AI 주요 뉴스 정리해봤는데 이거 진짜 가능한 수준인가요? [AI뉴스] TIME 선정 AI 빅10 발표… 중국이 자리 잡았네요 [프롬프트] 코드 리뷰 요청할 때 프롬프트 이렇게 해보세요 [AI뉴스] 요즘 AI 기업들 데이터센터 투자에 정신없네요 ㅋㅋ [프롬프트] Claude한테 물어볼 때 좋은 프롬프트 팁 있으신가요? [AI뉴스] 최근 빅테크의 AI 인프라 투자 규모가 미쳤네요... 이게 정상일까요? [프롬프트] 프롬프트 엔지니어링도 결국 '질문 잘 하기'더라고요 [프롬프트] 프롬프트 작성할 때 "역할 지정"이 얼마나 중요한지 깨달았어요 [기술 Q&A] 요즘 LLM 컨텍스트 윈도우 경쟁이 좀 이상하지 않나요? [AI뉴스] 2026년 AI 산업, 에이전트 시대와 피지컬 AI가 본격화되는 중 [AI뉴스] 2026년 AI 주요 뉴스 정리해봤는데 이거 진짜 가능한 수준인가요? [AI뉴스] TIME 선정 AI 빅10 발표… 중국이 자리 잡았네요 [프롬프트] 코드 리뷰 요청할 때 프롬프트 이렇게 해보세요 [AI뉴스] 요즘 AI 기업들 데이터센터 투자에 정신없네요 ㅋㅋ [프롬프트] Claude한테 물어볼 때 좋은 프롬프트 팁 있으신가요? [AI뉴스] 최근 빅테크의 AI 인프라 투자 규모가 미쳤네요... 이게 정상일까요? [프롬프트] 프롬프트 엔지니어링도 결국 '질문 잘 하기'더라고요 [프롬프트] 프롬프트 작성할 때 "역할 지정"이 얼마나 중요한지 깨달았어요
파인튜닝

요즘 로컬 LLM 돌려보신 분들 어떤 거 쓰세요?

딥러닝장인 2026.05.03 05:25 조회 1 추천 0 댓글 0건
요즘 집에서 한두 개 모델 돌려보고 있는데 생각보다 쓸만하더라고요. 처음엔 그냥 장난으로 시작했는데 가끔 코딩할 때나 글 정리할 때 괜찮네요.

근데 문제가 VRAM이에요. 8GB 그래픽카드로는 양자화된 7B 모델이 한계더라고요. 16GB 있어야 제대로 쓸 수 있을 것 같은데 그건 또 가격이 ㅠㅠ 요즘 더 좋은 경량 모델들도 나온다던데 뭐가 있나요?

혹시 제한된 하드웨어로 잘 돌리고 있는 분 계신가요? 팁이나 경험담 공유해주실 수 있을까요.
추천 0 비추천 0
댓글 0

댓글목록

아직 댓글이 없습니다. 첫 댓글을 남겨보세요!