29. 멀티 모델 협업 — 세 가지 시선으로 보기¶
모델 하나만 쓰면 한쪽 시각에 갇히기 쉬워요. 여러 모델을 함께 쓰면 같은 문제를 다른 각도에서 볼 수 있어요.
"중요한 결정일수록, 다른 관점이 필요합니다"
왜 여러 모델을 함께 쓰나?¶
코드 리뷰를 혼자 하면 자기 편향에 빠지기 쉬워요. AI도 마찬가지예요. 각 모델은 학습 데이터와 아키텍처가 달라서 같은 코드를 보고도 다른 점을 지적해요.
실제로 이 온보딩 사이트의 v1.8.0 개편 계획도 Gemini의 리뷰를 거쳐 7가지 개선사항이 추가되었어요.
모델별 특성¶
| 모델 | 강점 | 적합한 작업 |
|---|---|---|
| Claude | 오케스트레이션, 코드 생성, 복잡한 맥락 이해, 긴 코드 처리 | 구현, 리팩토링, 종합 판단 |
| Codex | 한 관점에서의 깊은 분석, 엣지 케이스 탐지 | 코드 리뷰, 버그 찾기, 보안 분석 |
| Gemini | 다양한 관점, 넓은 탐색, 대안 제시, 최신 정보 | 아키텍처 리뷰, 기술 조사, 문서 검토 |
각 모델의 강점은 고정된 게 아니라 계속 변해요. 중요한 건 여러 시선으로 교차 검증하는 습관입니다.
/ask로 다른 모델에게 질문하기¶
Claude Code 안에서 다른 모델에게 바로 질문할 수 있어요. /ask는 oh-my-claudecode(OMC)가 제공하는 스킬이에요.
실전 예제: 코드 리뷰¶
# 1. Codex에게 엣지 케이스 분석 요청
/ask codex "src/auth/token.ts의 refreshToken 함수를 리뷰해줘.
특히 race condition, 타임아웃, 에러 핸들링 빠진 부분 찾아줘"
# 2. Gemini에게 설계 관점 리뷰 요청
/ask gemini "현재 토큰 갱신 로직이 인메모리 캐시를 쓰고 있어.
분산 환경으로 확장할 때 어떤 문제가 생길 수 있고, 대안은 뭐가 있어?"
# 3. Claude가 두 리뷰를 종합해서 최종 판단
"Codex와 Gemini 리뷰 결과를 종합해서 우선순위를 정하고,
가장 중요한 것부터 수정해줘"
네이티브 CLI 연동¶
oh-my-claudecode의 /ask 외에도 각 모델 CLI를 직접 사용할 수 있어요.
Codex CLI (OpenAI)¶
# 설치 — 공식 문서에서 최신 설치 방법을 확인하세요
# https://github.com/openai/codex
npm install -g @openai/codex
# 파이프로 코드 전달
cat src/auth/token.ts | codex -q "이 코드의 엣지 케이스를 찾아줘"
Gemini CLI (Google)¶
# 설치 — Google 공식 패키지입니다
npm install -g @google/gemini-cli
# 파이프로 코드 전달
cat src/auth/token.ts | gemini -p "이 코드의 아키텍처를 리뷰해줘"
CLI를 직접 사용하면 더 세밀한 제어가 가능하지만, Claude Code 컨텍스트가 전달되지 않아요. 프로젝트 맥락이 필요하면 /ask를 사용하세요.
주의: CLI 도구들은 자주 업데이트됩니다. 설치 전에 각 도구의 공식 저장소에서 최신 설치 방법을 확인하세요.
/ccg — 트라이 모델 오케스트레이션¶
/ccg는 Claude, Codex, Gemini 세 모델에 동시에 질문해서 결과를 종합하는 oh-my-claudecode 스킬이에요.
동작 원리¶
┌─→ Claude ─→ 분석 결과 A ─┐
질문 ───────┼─→ Codex ─→ 분석 결과 B ─┼─→ Claude가 종합 → 최종 답변
└─→ Gemini ─→ 분석 결과 C ─┘
- 같은 질문을 세 모델에 병렬로 전송
- 각 모델 응답 수집
- Claude가 세 응답을 종합해 최종 답변 생성
언제 사용하나?¶
| 상황 | /ccg 사용 | 단일 모델 사용 |
|---|---|---|
| 중요 아키텍처 결정 | ✅ | |
| 보안 리뷰 | ✅ | |
| 기술 스택 선택 | ✅ | |
| 간단한 버그 수정 | ✅ | |
| 일상적인 코드 작성 | ✅ | |
| 단순 리팩토링 | ✅ |
합의 기반 의사결정 패턴¶
멀티 모델 협업에서 중요한 건 합의(consensus)예요.
패턴: 질문 → 비교 → 종합¶
# Step 1: 각 모델에게 같은 질문
/ask codex "Redis vs Memcached, 우리 프로젝트에 뭐가 맞아?"
/ask gemini "Redis vs Memcached, 우리 프로젝트에 뭐가 맞아?"
# Step 2: Claude에게 종합 요청
"Codex는 Redis를, Gemini는 Memcached를 추천했어.
각각의 근거를 비교하고, 우리 상황에 맞는 최종 추천을 해줘.
우리는 단일 서버, 10만 DAU, 세션 캐싱 용도야."
의견이 갈릴 때¶
세 모델이 모두 같은 답을 하면 확신이 높아지고, 갈리면 더 깊이 파야 한다는 신호예요.
| 합의 수준 | 해석 | 행동 |
|---|---|---|
| 3/3 동의 | 높은 확신 | 바로 진행 |
| 2/1 분리 | 중간 확신 | 소수 의견의 근거 검토 |
| 모두 다름 | 낮은 확신 | 더 구체적인 컨텍스트 제공 후 재질문 |
비용과 한계¶
멀티 모델은 유용하지만 공짜가 아니에요.
| 항목 | 주의사항 |
|---|---|
| API 비용 | 3모델 동시 호출 시 비용 3배 이상 |
| Rate Limit | Codex/Gemini CLI 무료 티어는 호출 한도가 있음 |
| 토큰 한도 | 긴 코드를 보낼 때 각 모델의 컨텍스트 윈도우 차이에 주의 |
| 프롬프트 호환성 | Claude에 통하는 프롬프트가 다른 모델에선 다르게 작동할 수 있음 |
| 응답 시간 | 3모델 병렬이라도 가장 느린 모델이 병목 |
프롬프트 호환성 팁¶
각 모델은 프롬프트 스타일에 반응하는 방식이 달라요:
# Claude에 최적화된 프롬프트
"다음 코드를 리뷰해줘. 특히 보안 취약점과 성능 이슈에 집중해줘."
# Codex에 최적화
"Review the following code. Focus on: 1) Security vulnerabilities 2) Performance issues"
# Gemini에 최적화
"Analyze this code from multiple perspectives: security, performance, maintainability."
중요한 리뷰에서는 각 모델의 강점에 맞게 프롬프트를 조정하면 더 좋은 결과를 얻을 수 있어요.
언제 단일 모델이면 충분한가¶
모든 작업에 멀티 모델이 필요하진 않아요.
단일 모델이 적합한 경우: - 명확한 구현 작업 (함수 작성, 버그 수정) - 반복적인 작업 (테스트 추가, 리팩토링) - 빠른 답변이 필요한 경우
멀티 모델이 적합한 경우: - 되돌리기 어려운 결정 (아키텍처, 기술 스택) - 보안이 중요한 코드 - 팀에 영향을 미치는 설계 변경
경험칙: "이 결정이 틀리면 며칠 이상 되돌리기 어려운가?" 그렇다면 멀티 모델을 고려하세요.
다음 단계¶
- OMC 활용 가이드 — /ask, /ccg 등 OMC 스킬 전체 가이드
- 팀 세션 가이드 — AI 에이전트 간 협업
- 모범 사례 — Claude Code 사용 패턴 모음