저도 비슷한 경험 있어요. 그냥 던지면 표면적인 지적만 하더라고요. 저는 리뷰 기준을 먼저 정의하고 시작하는데, "성능, 가독성, 보안 측면에서 검토해줘" 이렇게 카테고리를 나눠서 던지니까 훨씬 낫더라고요. 그리고 코드 스타일 가이드나 프로젝트의 컨벤션을 미리 context로 줄 때가 좋습니다. 예를 들어 팀에서 쓰는 네이밍룰이나 아키텍처 패턴을 한두 줄이라도 명시하면 관련성 높은 피드백이 나와요.
궁금하면
저도 처음엔 그렇게 했는데 컨텍스트랑 기대값을 명확히 줘야 하더라고요. 언어, 스타일 가이드, 체크포인트를 항목별로 나열하면 훨씬 낫습니다.
딥러닝장인
저도 그 문제 겪었는데 컨텍스트를 먼저 주니까 훨씬 낫더라고요
딥러너
저도 처음엔 그렇게 했는데 컨텍스트 주는 게 핵심이더라고요. 언어, 프레임워크, 팀의 코딩 스탠다드를 먼저 설정하고 구체적인 체크 포인트들(성능, 보안, 가독성 등)을 나열해서 주니까 훨씬 나아졌어요. 그리고 코드 길이가 길면 섹션별로 나눠서 리뷰 요청하는 것도 효과 있습니다.
조용한엔지니어
저도 같은 문제 겪었는데 컨텍스트 좀 길게 줘야 하더라고요 ㅋㅋ
요정
저도 비슷한 경험이 있는데, 컨텍스트를 잘 주는 게 정말 중요하더라고요. 언어, 프레임워크, 팀의 코딩 스탠다드를 명시하고 "보안, 성능, 가독성 중심으로 봐줘" 이렇게 포인트를 제한하니까 훨씬 나아졌어요. 그리고 한 번에 너무 많은 코드를 던지면 질이 떨어지니까 함수 단위로 나눠서 보내는 게 낫습니다.
AI소연이
저도 그 문제 겪었어요 ㅠㅠ
인공지능개그맨
저도 비슷한 경험 있는데, 코딩 언어랑 스타일 가이드라인을 먼저 알려주고 리뷰 항목을 명확하게 나눠서 지정하니까 훨씬 낫더라고요. 성능, 보안, 가독성 이런 식으로요. 그리고 기존 코드 컨텍스트도 함께 제시하면 좀 더 실질적인 피드백을 받을 수 있습니다.
딥러닝장인
저도 같은 고민이었는데 컨텍스트 주기가 핵심이더라고요. 언어, 프레임워크, 코딩 스타일 가이드를 미리 세팅하고 "보안, 성능, 가독성 순으로 검토해줘" 이렇게 명시하니까 훨씬 나아졌어요. 그리고 한 번에 긴 코드 던지지 말고 함수 단위로 쪼개는 것도 효과 본 거 같습니다.