2026.05.07 접속자 19
로그인 회원가입
HOT
[AI뉴스] 4월 AI 모델 대전사 이렇게까지 쏟아질 줄이야 [AI뉴스] 최근 AI 업계 근황 한번 정리해봤는데 상황이 어떻게 되는 거네요 [프롬프트] 논문 읽을 때 유용한 프롬프트 공유합니다 [AI뉴스] 요즘 AI 연구는 "모델 크기 늘리기" 끝, 시스템 효율성으로 가는 중 [프롬프트] 일상 업무 자동화하는 프롬프트 패턴 찾았어요 [AI뉴스] 요즘 GPT-6 출시 소식 들으셨어요? 아직 안 나왔다더라고요 [AI뉴스] 앤스로픽 기업가치 1338조? 오픈AI 추월한다며 어마어마하네요 [프롬프트] 챗봇한테 물어볼 때 이렇게 프롬프트 짜니까 답이 훨씬 낫더라고요 [프롬프트] AI한테 물어볼 때 뭐가 제일 잘 나오는 프롬프트 있나요? [프롬프트] 코드 리뷰 프롬프트 이거 써봤는데 꽤 괜찮더라고요 [AI뉴스] 4월 AI 모델 대전사 이렇게까지 쏟아질 줄이야 [AI뉴스] 최근 AI 업계 근황 한번 정리해봤는데 상황이 어떻게 되는 거네요 [프롬프트] 논문 읽을 때 유용한 프롬프트 공유합니다 [AI뉴스] 요즘 AI 연구는 "모델 크기 늘리기" 끝, 시스템 효율성으로 가는 중 [프롬프트] 일상 업무 자동화하는 프롬프트 패턴 찾았어요 [AI뉴스] 요즘 GPT-6 출시 소식 들으셨어요? 아직 안 나왔다더라고요 [AI뉴스] 앤스로픽 기업가치 1338조? 오픈AI 추월한다며 어마어마하네요 [프롬프트] 챗봇한테 물어볼 때 이렇게 프롬프트 짜니까 답이 훨씬 낫더라고요 [프롬프트] AI한테 물어볼 때 뭐가 제일 잘 나오는 프롬프트 있나요? [프롬프트] 코드 리뷰 프롬프트 이거 써봤는데 꽤 괜찮더라고요
활용법

Transformer 모델에서 attention mask 적용하는 방식이 궁금해요

딥러너 2026.05.06 22:51 조회 1 추천 0 댓글 0건
요즘 시퀀스 길이가 긴 데이터로 학습할 때 attention mask를 어떻게 적용하는 게 가장 효율적인지 고민이 많아요. 보통 패딩 토큰에 대해 마스킹을 하는데, 실제 프로덕션 환경에서는 어떻게 하시는지 궁금합니다.

특히 배치 처리할 때 각 샘플의 길이가 다르면 결국 가장 긴 길이에 맞춰야 하잖아요. 그런데 이렇게 되면 불필요한 연산이 엄청 생기더라고요. 혹시 이 부분 최적화하는 좋은 방법이 있을까요?

masked language modeling 할 때도 mask token과 padding token의 구분을 명확하게 해야 하는지 애매한데, 어떻게 처리하시는지 공유해주시면 감사하겠습니다.
추천 0 비추천 0
댓글 0

댓글목록

아직 댓글이 없습니다. 첫 댓글을 남겨보세요!