클로드 역시 코덱스와 같이 뮤료 플랜에서는 코딩 기능 사용이 불가 하고 유료 플랜에서만 가능하다. 클로드 코드는 터미널, VSCode , Desktop app, Web, JetBrains 을 지원하고 있다. 테스트는 앱으로 진행했다. Desktop app 은 유료로 플랜을 업그래이드 하면 Code 탭이 활성화 되며 이를 클릭하고 저장소를 지정하는 것올 바로 코딩 작업을 진행할 수 있다.
테스트는 Pro 요금제를 사용했는데, 5시간/주간 사용량 제한 정책에 따라 가벼운 작업은 가능하지만 본격적인 코딩에는 무리가 있다. 여러 테스트를 진행하면서 추가로 $20 에 해당하는 토큰을 3회 구매해서 사용했다.
클로드는 기본적으로 멀티 서브 에이전트 형태로 작업을 진행한다. 즉 토큰 소모가 매우 많다는 것을 의미한다. 코딩 성능은 확현하게 멀티 즉 서브 에어전트를 사용하는 것과 하지 않는 것에는 차이가 발생한다. 이는 서브 에어전트의 작업 결과를 마스터 에어전트가 취합하여 정리하는 과정에서 자연스럽게 질적 향상이 발생하는 것 같다. (컨텍스트 오염 최소화)
비교를 통한 성능 측정을 목적으로 간단하게 런타임 오류 메시지에 대한 분석을 각각 ① Claude Sonnet 4.6 , ② GPT-5.4 중간을 사용하여 진행해보았다. 문제의 원인은 모두 정확하게 지적하고 있지만 Claude Sonnet 4.6 가 좀더 보기 편하게 번호를 붙이거나 표형태로 보여주고 있다.
![]() |
| Codex (GPT 5.4 midium) 답변 |
![]() |
| Claude (Sonnet 4.6) 답변 |
클로드(Claude)의 경우 분석만으로 요청했지만 수정까지 해버리는 우(愚)를 범했다.
다음으로 소스 코드 분석을 실행하고 결과를 비교해 보았다.
"*** 는 사용자 시스템 구현에 의존하지 않고 사용자를 식별할 하기 위한 계약이다. 이 모듈 코드를 좋은점, 나쁜점, 개선점 측면에서 분석하고 결과를 보여줘."
![]() |
| Claude (Sonnet 4.6) 답변 |
![]() |
| Codex (GPT 5.4 midium) 답변 |
결과가 예상과는 달랐는데 나쁜점의 경우 모두 거의 유사한 내용을 언급하고 있지만 좋은점과 개선점에서는 차이점이 있었다. 답변은 모두 코드에 근거하여 답변을 하고 있었다. 전체적인 인상은
클로드 결과는 “지금 바로 고칠 점을 뽑아내는 리뷰” 라면 코덱스 리뷰는 “왜 이렇게 고쳐야 하는지까지 설명하는 리뷰” 라고 정리할 수 있어 이번에는 코텍스의 답변이 더 좋았다고 평가했다. (주관적 판단)
① 클로드
구체적인 결과 = 항목화된 판정 + 예시 코드 즉,
- 무엇이 좋은지
- 무엇이 나쁜지
- 무엇을 바꿔야 하는지
를 표와 목록으로 끊어서 보여준다. (정리본 형태)
② 코덱스
구체적인 결과 = 모듈 의도 + 실제 사용처 + 개선 논리 즉,
- 이 모듈이 왜 존재하는지
- 실제로 어디서 어떻게 쓰이는지
- 그래서 어떤 혼란이 생길 수 있는지
를 설명 흐름 안에서 보여준다. (리뷰 대화록 형태)






댓글 없음:
댓글 쓰기