당신이 몰랐던 대형 언어 모델 훈련: 원리, 경로, 그리고 새로운 실践
원문: Tw93 (@HiTw93) — 《你不知道的大模型训练:原理、路径与新实践》
작성 기준: 2026년 4월
들어가며
2026년 현재, 대형 언어 모델(LLM)의 성능 격차를 만드는 곳은 더 이상 사전 훈련(Pretraining) 자체가 아니다. 진짜 승부는 그 이후에 펼쳐지는 기나긴 훈련 후반부, 즉 후훈련(Post-training), 평가(Eval), 보상 설계(Reward), 에이전트 훈련(Agent Training), 증류(Distillation) 에서 결정된다. 어떤 모델이 갑자기 강해졌다고 느낀다면, 십중팔구 이 여러 단계가 동시에 개선된 결과다.
이 문서는 다음의 두 가지 자료를 통합하여 비전문가도 이해할 수 있도록 상세하게 서술한 해설서다:
- Tw93의 원문 기사 — LLM 훈련 파이프라인 전체를 순서대로 설명한 중국어 기술 글
- 8장의 다이어그램 이미지 — ORM/PRM 비교, 에이전트 보상 루프, Constitutional AI, 컴퓨트 스케일링, 추론 모델 vs. 에이전트 모델, Runtime Harness, PARL 오케스트레이터, 산업 확산(증류 계단) 등
목차
- 대형 모델 훈련은 하나의 파이프라인이다
- 사전 훈련: 모델의 토대
- 데이터 레시피: 능력의 설계도
- 시스템과 아키텍처: 훈련 전에 결정해야 할 것들
- 후훈련: 사용자가 실제로 느끼는 차이를 만드는 곳
- 이미지 1: ORM vs. PRM — 보상 모델의 두 가지 방식
- 이미지 2: 에이전트 훈련 루프와 Grader/Judge
- 이미지 3: Constitutional AI — RLAIF의 두 단계
- 이미지 4: 컴퓨트 스케일링의 새 지형도 — 훈련 vs. 추론
- 이미지 5: 추론 모델 vs. 에이전트 모델
- 이미지 6: Runtime Harness와 외부 루프 최적화
- 이미지 7: PARL — 병렬 에이전트 강화학습
- 이미지 8: 증류를 통한 산업 확산 계단
- Eval, Grader, Reward — 훈련 목표를 재정의하다
- 에이전트 훈련: 최적화 대상이 모델 자체를 넘어선다
- 프론티어 모델 출시 후에도 훈련 파이프라인은 계속 돌아간다
- 앞으로 모델이 왜 강해졌는지 보는 법
- 참고 문헌
1. 대형 모델 훈련은 하나의 파이프라인이다
과거 몇 년간 모델의 진보를 설명하는 방식은 주로 파라미터 수, 데이터 양, 컴퓨팅 파워의 축적이었다. 그러나 실사용자들이 실제로 체감하는 성능 향상의 상당 부분은 기초 언어 코퍼스를 더 많이 학습시켜서 생기는 것이 아니라, 사전 훈련 이후의 전체 훈련 프로세스에서 온다.
모델이 어떻게 말하는지, 어떻게 지시를 따르는지, 어떻게 추론하는지, 어떻게 도구를 사용하는지 — 이것들은 인터넷 텍스트를 더 많이 먹여준다고 저절로 생겨나지 않는다.
InstructGPT의 충격적 사례
InstructGPT 연구는 매우 직접적인 예시를 보여준다. 파라미터 1.3B, 즉 인간 피드백 기반 정렬(RLHF)과 선호도 최적화를 거친 소형 모델이, 인간 선호도 평가에서 175B 파라미터의 GPT-3를 이겼다. 파라미터 수는 100배 이상 차이 나지만 사용자들은 훨씬 작은 버전을 더 선호했다. 훈련 후반부가 사용자 인식을 실질적으로 바꿀 수 있다는 증거다.
훈련 과정은 하나의 파이프라인이다. 데이터, 알고리즘, 시스템, 피드백이라는 여러 레이어가 고도로 결합되어 있고, 한 레이어의 변화는 다른 레이어로 전파된다.
flowchart LR
A["원시 데이터\n(Raw Data)"] --> B["데이터 엔지니어링\n(Data Engineering)"]
B --> C["사전 훈련\n(Pretraining)"]
C --> D["지시 미세조정\n(Instruction Tuning / SFT)"]
D --> E["선호도 정렬\n(RLHF / DPO / RFT)"]
E --> F["추론 RL\n(Reasoning RL)"]
F --> G["에이전트 훈련\n(Agent Harness Training)"]
G --> H["증류 & 전문화\n(Distillation & Specialization)"]
H --> I["배포\n(Deployment)"]
I -->|"생산 트래픽 피드백"| B
H -->|"오프라인 평가 결과"| C
핵심: 이 여섯 개의 레이어는 분업을 보기 위한 것이고, 실제로는 더 세밀한 9단계 파이프라인이 존재한다. 원시 데이터와 시스템 레시피가 별도로 분리되고, 에이전트 하네스(Agent harness)와 배포도 후반부의 세부 단계로 존재한다. 두 개의 피드백 루프가 전체를 관통한다.
2. 사전 훈련: 모델의 토대
사전 훈련은 여전히 훈련 체인의 출발점이다. 이것이 무엇을 하는지 명확히 이해해야 이후의 각 레이어가 무엇을 보완하는지 알 수 있다.
사전 훈련이 실제로 하는 일
표면적으로는 “다음 토큰 예측(next token prediction)” 이지만, 그것이 전부가 아니다.
- 언어 분포를 학습한다: 자연어의 통계적 패턴을 파라미터 안에 압축한다
- 지식과 패턴을 압축한다: 대규모 텍스트에서 세계 지식을 증류한다
- 이후 능력 활성화를 위한 공간을 만들어둔다: 규모가 커질수록 이전에 없던 능력이 갑자기 등장하는 창발(emergence) 현상이 발생한다
“다음 토큰 예측”이라는 훈련 형식만으로는, 왜 규모가 커지면 모델이 예전에 없던 능력을 갑자기 가지게 되는지 설명하지 못한다.
Chinchilla 법칙과 과훈련(Over-Training)
Hoffmann et al.(2022)의 Chinchilla 연구는 데이터 최적 훈련 지점(compute-optimal point) 을 제시했다. 8B 파라미터 모델의 경우 약 200B 토큰이 최적이다.
그런데 Llama 3 8B는 실제로 15T 토큰을 사용했다 — Chinchilla 최적점의 약 75배다.
이런 의도적 과훈련(intentional over-training) 전략은:
- 동일한 파라미터 수에서 더 높은 능력 밀도를 제공한다
- 더 작고, 추론 비용도 더 저렴한 모델을 만들어낸다
| 모델 | 파라미터 | 훈련 토큰 | Chinchilla 최적 대비 |
|---|---|---|---|
| Llama 3 8B | 8B | 15T | ~75배 초과 |
| Chinchilla 최적 8B | 8B | ~200B | 기준값 |
단순히 총 FLOP(부동소수점 연산 횟수)을 보는 것이 파라미터 수만 보는 것보다 훨씬 정확한 비교 기준이다.
Tokenizer 설계의 중요성
사전 훈련 단계에서 흔히 간과되는 설계 결정이 있다: 토크나이저(tokenizer).
- Llama 2의 어휘 크기(vocabulary size): 32K
- Llama 3은 128K로 확장 → 시퀀스 길이 약 15% 단축 → 하위 성능 향상
중국어나 코드, 수식을 너무 잘게 분리하는 토크나이저는 매 추론마다 이 잘못된 결정의 대가를 치르게 된다. 이는 배포 후 수정할 수 없는 설계 결정이다.
3. 데이터 레시피: 능력의 설계도
파라미터 규모가 과거 수 년간 주요 비교 지표였다면, 최근 2년의 진짜 승부처는 데이터 레시피(Data Recipe) 다.
데이터 처리 파이프라인
웹 페이지, 코드 저장소, 도서, 포럼 같은 원시 데이터는 다음 단계를 거쳐야 사전 훈련에 투입될 수 있다:
flowchart TD
A["원시 데이터\n(웹, 코드, 책, 포럼)"] --> B["텍스트 추출\n(Text Extraction)"]
B --> C["언어 식별\n(Language ID)"]
C --> D["품질 필터링\n(Quality Filtering)"]
D --> E["개인정보 처리\n(Privacy Filtering)"]
E --> F["안전 필터링\n(Safety Filtering)"]
F --> G["중복 제거\n(Deduplication)"]
G --> H["사전 훈련 데이터셋"]
데이터 엔지니어링은 단순한 데이터 세정이 아니라 능력 설계(Capability Design) 에 가깝다. 모델이 무엇을 보고 무엇을 보지 않는지, 코드·수학·백과사전이 각각 어느 비율인지 — 이 선택들이 모델의 최종 능력 분포를 직접 결정한다.
중복 제거와 오염 제거
중복 제거(Deduplication)와 오염(Contamination) 제어는 흔히 과소평가되지만, 결과에 미치는 영향이 크다. 처리해야 할 대상은 단순 저품질 데이터가 아니라 반복 템플릿, 라이선스 텍스트, 미러링된 웹 페이지, 그리고 벤치마크 데이터 누출(Benchmark Leakage)까지 포함된다.
합성 데이터의 부상
합성 데이터(Synthetic Data)는 보조 수단에서 벗어나 정식 훈련 과정의 일부가 되었다.
- Self-Instruct: 모델 스스로 지시 데이터를 생성
- DeepSeek-R1 증류 궤적: RL로 훈련된 대형 모델의 추론 경로를 소형 모델에 주입
- Qwen, Kimi 시리즈: 점점 명확해지는 합성 감독(Synthetic Supervision)
핵심 원리: 각 세대의 더 강한 모델이 다음 세대 모델이 볼 데이터를 재구성하는 데 참여한다. GPT-3 스케일 → 기초 지시 데이터 생성 → GPT-4 스케일 → 고품질 추론 궤적 및 CoT 데이터 생성 → RL 훈련된 추론 모델 → 이 궤적을 더 작은 dense 모델에 증류.
Dense 모델: 모든 파라미터가 활성화되는 방식. MoE(Mixture of Experts)처럼 필요에 따라 일부만 활성화하는 것과 다르다.
4. 시스템과 아키텍처: 훈련 전에 결정해야 할 것들
많은 이들이 훈련을 연구 문제로만 이해한다 — 목적 함수를 어떻게 설정하고, 손실을 어떻게 낮추고, 모델 구조를 어떻게 변경할지. 그러나 진짜 대형 모델 훈련에서 시스템 제약(System Constraints) 은 단일 머신의 딥러닝 문제가 아니라 분산 시스템 문제다.
MoE(Mixture of Experts): 비용과 효과의 절충
MoE는 이 레이어의 가장 전형적인 예다. 다중 전문가 모드는 유사한 계산량으로 총 파라미터를 늘리면서, 각 토큰의 활성화 비용을 통제한다. 대가는 복잡한 라우팅, 부하 균형 어려움, 무거운 인프라다.
DeepSeek-V3, Qwen 시리즈의 MoE 설계는 모두 비용과 효과 사이의 절충이며, 단순한 아키텍처 선호가 아니다.
훈련 전에 정의되어야 할 것들
| 결정 사항 | 이후 영향 |
|---|---|
| 컨텍스트 윈도우 길이 | Attention 비용, Batch size, 병렬화 전략 |
| 다중 모달 사전 훈련 여부 | 데이터 믹싱, 인코더 설계, 안전 평가 |
| 단일 GPU 실행 가능 여부 | 파라미터 수, 양자화 경로, 모델 패밀리 크기 |
| MoE vs. Dense | 라우팅 복잡도, serving 비용 |
예를 들어 Gemma 3은 단일 가속기 실행, 128K 컨텍스트, 시각 능력, 양자화를 동시에 강조했는데, 이는 훈련 설계 단계에서 이미 정해진 절충의 결과다.
훈련의 불안정성: 현실적 공학 과제
수천 장의 GPU를 몇 주 동안 돌리다 보면 훈련 손실이 갑자기 급증(loss spike) 하는 일이 발생한다. 이 경우 며칠 전의 체크포인트로 롤백해서 다시 시작해야 한다.
그 외에도:
- GPU 침묵 오류(Silent Error): 오류를 보고하지 않지만 잘못된 그래디언트를 생성
- NVLink 대역폭 이상
- 노드 간 통신 지연
DeepSeek-V3의 기술 보고서는 전체 사전 훈련 과정에서 복구 불가능한 loss spike가 없었으며, 롤백도 없었다고 명시했다. FP8 혼합 정밀도 훈련의 대규모 실현 가능성을 공개적으로 검증한 소수의 사례 중 하나다. 전체 과정에서 약 2.788M H800 GPU 시간을 사용해 14.8T 토큰의 사전 훈련을 완료했다.
5. 후훈련: 사용자가 실제로 느끼는 차이를 만드는 곳
일반 사용자들이 실제로 체감할 수 있는 많은 개선이 사전 훈련 이후에 일어난다.
지시 미세조정(Instruction Tuning / SFT)
레이블이 달린 지시-응답 데이터 쌍으로 모델을 지도 훈련한다. 이는 응답 방식을 변화시킨다. 과제를 어떻게 받아들이고, 출력을 어떻게 구성하고, 협력적인 보조자처럼 어떻게 행동하는지를 감독 신호로 만든다.
기초 모델이 이미 잠재적 능력을 많이 가지고 있을 수 있지만, 이 단계 없이는 그 능력들이 사용자가 기대하는 형태로 안정적으로 표출되지 않는다.
SFT는 지식만이 아니라 스타일도 학습한다: 데이터 길이, 형식, 인용 포함 여부, 항목별 표현 선호도 등이 모두 모델의 최종 출력 형태에 상당한 영향을 미친다.
RLHF, DPO, RFT의 차이
세 방법은 방향은 같지만 경로가 다르다:
graph TD
A["'더 좋은 응답이란 무엇인가'를\n훈련 루프에 통합"] --> B["RLHF"]
A --> C["DPO"]
A --> D["RFT"]
B --> B1["고품질 응답 모방 후\n선호도 비교로 강화학습\n(독립적인 보상 모델 필요)"]
C --> C1["선호도 비교에서 직접 학습\n(별도 보상 모델 불필요)"]
D --> D1["과제 정의, 채점기 설계,\n보상 신호를 제품화 흐름에 통합"]
오늘날 후훈련을 논의할 때 SFT나 RL만 이야기하는 것은 불충분하다. 더 어려운 것은 평가를 어떻게 설정하고, 점수를 어떻게 매기고, 어떤 응답이 계속 최적화할 가치가 있는지를 결정하는 일이다.
DeepSeek-R1의 4단계 후훈련 파이프라인
공개 자료 중 가장 명확한 훈련 레시피는 DeepSeek-R1의 4단계 구조다:
flowchart TD
P1["단계 1: 냉각 시작 SFT\n(Cold-start SFT)\n소량의 고품질 CoT 데이터로 워밍업\n→ RL을 위한 안정적 출발점 확보"]
--> P2["단계 2: 검증 가능 도메인 강화학습\n(RL on Verifiable Domains)\n수학, 코드, 논리 등에서 GRPO 알고리즘 적용\n→ 프로그래밍적으로 검증 가능한 정확성을 보상 신호로 사용"]
--> P3["단계 3: 거절 샘플링 미세조정\n(Rejection Sampling Fine-Tuning)\nRL이 생성한 성공 궤적을 필터링 후 새로운 SFT 데이터로 전환"]
--> P4["단계 4: 유익성 & 안전성 정렬\n(Helpfulness & Safety Alignment)\n모델을 배포 가능한 어시스턴트 형태로 조정"]
style P1 fill:#dbeafe
style P2 fill:#fef3c7
style P3 fill:#d1fae5
style P4 fill:#fce7f3
왜 GRPO인가?: 기존 PPO(근접 정책 최적화)는 상태 가치를 추정하기 위한 독립적인 가치 네트워크(Value Network) 가 필요해서 대형 모델에서 두 개의 네트워크를 동시에 유지하는 공학적 부담이 크다. GRPO는 동일한 프롬프트에 대해 여러 응답을 샘플링하고, 그룹 내 순위로 절대적 가치 추정을 대체한다. 독립적인 가치 네트워크가 필요 없어 공학적으로 훨씬 단순하다.
6. 이미지 1: ORM vs. PRM — 보상 모델의 두 가지 방식
flowchart TB
subgraph ORM ["ORM — Outcome Reward Model (결과 보상 모델)"]
direction TB
O1["Step 1"]
O2["Step 2 ❌ wrong"]
O3["Step 3"]
O4["Final answer ✓"]
OR["🏆 Reward: 1 (correct)"]
OF["⚠️ 실패 모드: 잘못된 과정 → 올바른 답"]
O1 --> O2 --> O3 --> O4 --> OR
OR -.-> OF
end
subgraph PRM ["PRM — Process Reward Model (과정 보상 모델)"]
direction TB
P1["Step 1"] --> PR1["✅ +0.9"]
P2["Step 2"] --> PR2["❌ −0.8"]
P3["Step 3"] --> PR3["✅ +0.7"]
P4["Final ✓"] --> PR4["✅ +1.0"]
PB["✨ 이점: 모든 단계 감독 → 신뢰할 수 있는 과정"]
PR1 --> P2
PR2 --> P3
PR3 --> P4
PR4 -.-> PB
end
ORM ---|"vs"| PRM
style O2 fill:#fecaca,stroke:#ef4444
style OF fill:#fef2f2,stroke:#fca5a5
style PR2 fill:#fecaca,stroke:#ef4444
style PR1 fill:#dcfce7,stroke:#22c55e
style PR3 fill:#dcfce7,stroke:#22c55e
style PR4 fill:#dcfce7,stroke:#22c55e
style PB fill:#f0fdf4,stroke:#86efac
style OR fill:#dbeafe,stroke:#3b82f6
이 다이어그램은 결과 보상 모델(Outcome Reward Model, ORM) 과 과정 보상 모델(Process Reward Model, PRM) 의 근본적인 차이를 시각화한다.
ORM (결과 보상 모델)
ORM은 최종 답변만을 보고 점수를 준다.
- 오류가 있는 과정(Step 2 wrong)을 거쳤더라도, 최종 답이 맞으면 Reward: 1
- 실패 모드: 잘못된 과정 → 올바른 답 (모델이 운 좋게 맞추거나 지름길을 학습)
| 항목 | ORM |
|---|---|
| 주석 비용 | 낮음 |
| 신호 밀도 | 희박(Sparse) |
| 일반적 용도 | 일반 과제 |
| 주요 실패 모드 | 지름길 추론(Shortcut Reasoning) |
PRM (과정 보상 모델)
PRM은 각 중간 단계마다 점수를 준다.
- Step 1: ✓ +0.9 / Step 2: ✗ −0.8 / Step 3: ✓ +0.7 / Final: ✓ +1.0
- 이점: 모든 단계가 감독되므로 신뢰할 수 있는 추론 과정 확보
| 항목 | PRM |
|---|---|
| 주석 비용 | 높음 |
| 신호 밀도 | 조밀(Dense) |
| 일반적 용도 | 수학 / 코드 |
| 주요 실패 모드 | 높은 레이블 비용 |
실무에서의 선택
OpenAI의 수학 추론 실험에서 PRM은 정확도를 높였을 뿐만 아니라 과정도 더 잘 제약했다 — 모든 단계가 감독되기 때문이다. 문제는 PRM의 비용이 ORM의 수배에 달한다는 것이다. 따라서 대부분의 실제 시스템은 ORM부터 시작하고, 수학·코드·논리 같은 검증 가능 과제에서만 프로그래밍적으로 중간 단계를 검증하는 방식으로 PRM을 자동화한다.
7. 이미지 2: 에이전트 훈련 루프와 Grader/Judge
이 다이어그램은 에이전트 훈련의 핵심 피드백 루프를 보여준다.
flowchart LR
TD["Task definition\n과제 정의"] --> ES["Eval set\n평가 세트"]
ES --> GJ["Grader / Judge\n채점기 / 판정자"]
GJ --> RS["Reward signal\n보상 신호"]
RS --> PU["Policy update\nSFT / DPO / RL"]
PU --> NR["New rollouts\n새로운 실행 궤적"]
NR --> TD
GJ -. "에이전트 보상 분류" .-> ARB["Agent reward breakdown\n• Outcome reward (결과 보상)\n• Process reward (과정 보상)\n• Context reward (맥락 보상)\n• Anti-hacking penalty (반-해킹 페널티)"]
GJ -. "경고" .-> W["채점기가 틀리면\n훈련은 잘못된 목표를 최적화한다"]
핵심 구성 요소 해설
Grader/Judge (채점기/판정자): 모델의 출력을 훈련 점수로 변환하는 컴포넌트다. 이것이 틀리면 전체 훈련이 잘못된 방향으로 흐른다.
에이전트 보상 분류:
- Outcome reward (결과 보상): 최종 과제 성공 여부
- Process reward (과정 보상): 중간 단계의 품질
- Context reward (맥락 보상): 검색 중 관련 문서 발견 등 맥락 관리 품질
- Anti-hacking penalty (반-해킹 페널티): 채점 시스템을 악용하는 행동에 대한 패널티
Rollout: 모델이 과제를 수행하며 생성하는 실행 궤적이다. 이것이 정책 업데이트의 원재료가 된다.
왜 이것이 중요한가
이 루프에서 어느 하나라도 어긋나면, 이후의 모든 최적화도 함께 어긋난다. 과제 정의 → 평가 → 채점 → 최적화 → 롤아웃 → 재평가, 이 체인 전체가 정렬되어 있어야 한다.
8. 이미지 3: Constitutional AI — RLAIF의 두 단계
이 다이어그램은 Anthropic의 Constitutional AI(CAI) 접근법을 보여준다. 이것은 RLAIF(AI 피드백 기반 강화학습) 의 대표적 구현이다.
flowchart TD
CON["Constitution\n인간이 작성한 원칙\n(개별 사례 레이블 없음)"]
CON --> SL_PHASE
CON --> RL_PHASE
subgraph SL_PHASE ["Phase 1 — SL(감독학습) 단계"]
direction TB
IMR["Initial model response\n기반 모델의 원시 출력"]
SC["Self-critique\n이 응답이 원칙을 위반하는가?"]
RR["Revised response\n원칙을 따르도록 모델이 재작성"]
FT["Fine-tune on revisions\nSL-CAI 체크포인트"]
IMR --> SC --> RR --> FT
end
subgraph RL_PHASE ["Phase 2 — RL(강화학습) 단계"]
direction TB
SRP["Sample response pairs\nSL-CAI 미세조정 모델에서"]
APM["AI preference model (RLAIF)\n어느 응답이 원칙을 따르는가?"]
PD["Preference dataset\nAI가 레이블링한 비교 쌍"]
RLT["RL training\nAI 피드백이 포함된 RLHF 루프"]
SRP --> APM --> PD --> RLT
end
FT --> SRP
NOTE["RLAIF는 RLHF를 대체한다:\nAI가 AI를 평가하고,\n인간의 감독은 개별 레이블 대신 규칙으로 이루어진다"]
Constitutional AI의 혁신점
기존 RLHF는 인간 주석자가 응답 쌍마다 직접 선호도를 레이블링해야 했다. CAI는 이를 두 단계로 재설계한다:
- SL 단계: 모델이 자체 비평(Self-critique)을 통해 원칙에 따라 응답을 수정하는 방법을 학습
- RL 단계: AI가 어느 응답이 헌법 원칙을 더 잘 따르는지 평가하여, 인간의 개별 레이블 주석을 대체
인간의 역할은 개별 사례를 판단하는 것에서 원칙을 정의하는 것으로 이동한다. 정렬은 훈련에 붙이는 패치가 아니라, 훈련 목표 내부의 일부가 된다.
9. 이미지 4: 컴퓨트 스케일링의 새 지형도 — 훈련 vs. 추론
이 4분면 차트는 AI 컴퓨팅 스케일링의 역사와 현재 방향을 시각적으로 보여준다.
quadrantChart
title Training Compute vs Inference Compute
x-axis Low Training --> High Training
y-axis Low Inference --> High Inference
quadrant-1 Agent Era
quadrant-2 Reasoning Models
quadrant-3 GPT-3 Era
quadrant-4 Larger Pretraining
GPT-3: [0.15, 0.15]
o1 / DeepSeek-R1: [0.35, 0.75]
Larger Pretraining: [0.75, 0.25]
Agent Era: [0.85, 0.85]
각 영역 해설
GPT-3 시대 (좌하단): 훈련만 확장, 추론은 고정. 모델 훈련에 더 많은 컴퓨팅을 투입하되 응답 길이는 고정.
대규모 사전 훈련 (우하단): 훈련 컴퓨트는 크지만 추론 컴퓨트는 여전히 낮음. 더 큰 사전 훈련, 고정된 출력 길이.
추론 모델 (좌상단): 동일한 훈련 규모지만 가변적 추론 컴퓨트. o1, DeepSeek-R1이 여기에 해당. 추론 시간에 더 많이 “생각”할 수 있도록 RL이 이 수직축을 연다.
에이전트 시대 (우상단) — 새로운 프론티어: 더 긴 궤적, 더 많은 도구 호출, 더 큰 추론 예산. 훈련과 추론 컴퓨트를 모두 확장.
핵심 통찰
RL 훈련은 이제 모델에게 질문에 답하는 방법만이 아니라, 추론 예산을 어떻게 배분할지도 가르친다.
추론 모델의 등장은 스케일링의 새로운 차원을 열었다. 이전에는 “더 크게 훈련하면 더 나은 모델”이었다. 이제는 “추론 시간에 더 많이 생각할 수 있게 훈련하면 더 나은 모델”이라는 새로운 축이 추가됐다.
10. 이미지 5: 추론 모델 vs. 에이전트 모델
이 다이어그램은 현재 AI 개발의 두 가지 핵심 패러다임을 비교한다.
추론 모델(Reasoning Model)
1
2
프롬프트 → 추론 궤적 → 최종 답변 → 검증기
(단일 답변을 최적화)
추론 모델은 문제를 받으면, 내부적으로 추론 궤적(Reasoning Trace) 을 생성하고, 최종 답변을 내놓은 뒤 검증기가 확인한다. 최적화 단위는 하나의 답변.
에이전트 모델(Agentic Model)
1
2
3
목표 → 계획/정책 → 도구 호출 → 환경 피드백 →
기억/맥락 편집 → 다음 행동 → (반복)
(환경 속의 궤적을 최적화)
에이전트 모델은 목표를 받으면, 계획하고, 도구를 호출하고, 환경 피드백을 받고, 기억을 업데이트하고, 다음 행동을 결정하는 반복 루프를 수행한다. 최적화 단위는 완전한 과제 궤적(Trajectory).
비교표
| 항목 | 추론 모델 | 에이전트 모델 |
|---|---|---|
| 최적화 단위 | 답변 | 궤적 |
| 주요 병목 | 검증기 정확도 | 하네스(Harness) 품질 |
| 일반적 보상 | 결과 보상 | 결과 + 과정 보상 |
| 일반적 실패 | 지름길 추론 | 도구 오용 / 맥락 표류 |
| 보상 해킹 위험 | 낮음 | 높음 |
에이전트 모델의 높은 보상 해킹 위험
에이전트 모델은 환경에 접근할 수 있기 때문에, 단순히 과제 결과를 최적화하는 것을 넘어 채점 코드 자체나 훈련 관계를 조작하려 할 수 있다. 이것이 에이전트 모델의 보상 해킹 위험이 높은 이유다.
11. 이미지 6: Runtime Harness와 외부 루프 최적화
이 다이어그램은 에이전트 훈련의 최적화 목표가 어떻게 확장되었는지를 보여주는 핵심 개념이다.
flowchart LR
subgraph RH ["Runtime Harness (런타임 하네스)"]
BM["Base model / policy\n기반 모델 / 정책"]
PC["Prompt construction\n프롬프트 구성"]
RM["Retrieval / memory\n검색 / 기억"]
CE["Context editing\n맥락 편집"]
TO["Tool orchestration\n도구 오케스트레이션"]
end
RH --> RST["Rollouts, scores, execution traces\n실행 궤적, 점수, 실행 로그"]
RST --> OHO["Outer-loop harness optimizer\n외부 루프 하네스 최적화기\n(이전 코드, 궤적, 점수를 읽음)"]
OHO -->|"Revised harness code\n수정된 하네스 코드"| RH
RST -->|"reads traces"| OHO
NOTE["최적화 목표의 확장:\n답변 → 궤적 → 하네스 프로그램"]
Harness란 무엇인가?
Harness는 모델을 감싸는 제어 프로그램이다. 에이전트 런타임에만 속하는 개념이 아니라, 훈련 단계에서도 존재한다. 모델이 어떤 입력을 보고, 어떤 형태로 피드백을 받고, 언제 맥락을 자르고, 언제 도구를 호출하는지를 결정한다.
Harness의 구성 요소:
- Prompt construction: 어떤 정보를 어떤 형식으로 모델에게 보여줄지
- Retrieval / memory: 외부 정보를 어떻게 검색하고 기억할지
- Context editing: 너무 긴 맥락을 어떻게 편집/압축할지
- Tool orchestration: 도구 호출의 시기와 방식
Meta-Harness: 하네스 자체를 최적화
Meta-Harness 연구(Lee et al., 2026)는 같은 기반 모델에서 하네스만 바꿔도 동일 벤치마크에서 6배의 성능 차이가 날 수 있음을 보였다.
핵심은 이전 코드, 점수, 실행 로그 전체를 파일시스템에 기록하고, 제안자(Proposer) 가 코드를 작성하듯 grep, cat, diff를 통해 비교하며 하네스를 수정하는 것이다.
실제 발견된 최적화 예시: TerminalBench-2에서 Meta-Harness는 환경 부트스트래핑(environment bootstrap) 을 자동으로 발견했다 — 에이전트 루프 시작 전에 셸 명령을 실행하여 작업 디렉터리, 사용 가능한 언어, 패키지 매니저, 메모리 상태를 스냅샷으로 캡처해 첫 번째 프롬프트에 주입하는 방식이다. 많은 코딩 에이전트가 처음 몇 라운드를 환경 탐색에 낭비하는데, 이 전처리로 처음부터 더 나은 맥락 위에 서게 된다.
결론: 최적화 목표는 이제 답변 → 궤적 → 하네스 프로그램으로 확장되었다.
12. 이미지 7: PARL — 병렬 에이전트 강화학습
이 다이어그램은 Kimi K2.5의 PARL(Parallel Agent Reinforcement Learning) 아키텍처를 보여준다.
flowchart TD
OA["Orchestrator agent (trainable)\n오케스트레이터 에이전트 (훈련 가능)\n학습: 언제 분해할지, 어떻게 할당할지, 어떻게 집계할지"]
OA --> SA1["Sub-agent 1 (frozen)\n하위 에이전트 1 (고정)\n독립적으로 하위 과제 실행"]
OA --> SA2["Sub-agent 2 (frozen)\n하위 에이전트 2 (고정)\n독립적으로 하위 과제 실행"]
OA --> SA3["Sub-agent 3 (frozen)\n하위 에이전트 3 (고정)\n독립적으로 하위 과제 실행"]
SA1 --> TE["Tool environment\n도구 환경"]
SA2 --> TE
SA3 --> TE
TE --> TOOLS["Browser | Terminal | Search | File system"]
RPERF["r_perf\n과제 성공 (primary)"]
RPAR["r_parallel\n분해 인센티브\n(훈련 중 0으로 어닐링)"]
RFIN["r_finish\n허위 병렬화 패널티"]
OA -.-> RPERF
OA -.-> RPAR
OA -.-> RFIN
PARL의 핵심 설계 원칙
1. 오직 오케스트레이터만 훈련한다
하위 에이전트는 고정(Frozen) 상태다. 이렇게 하면:
- 크레딧 할당(Credit Assignment) 문제 해결: 모든 에이전트에 동시에 그래디언트를 전파하는 복잡성을 제거
- 오직 오케스트레이터만 그래디언트를 받음 → 공학적으로 훨씬 단순
2. 세 가지 보상 신호
- r_perf (성능 보상): 과제 성공 여부 (주요 신호)
- r_parallel (병렬화 보상): 초기에는 높게 설정해 병렬화 전략 탐색을 장려, 훈련이 진행될수록 점점 0으로 어닐링(Annealing) → 하위 에이전트를 더 많이 여는 것 자체가 보상이 되는 것 방지
- r_finish (완료 보상): 허위 병렬화(실제 효과 없는 병렬화)에 패널티 부과
3. 평가 기준: 관건 경로(Critical Path)
총 단계 수를 보는 것이 아니라 가장 긴 연속 체인(Longest Serial Chain) 을 측정한다. 관건 경로가 짧아질 때만 병렬화가 실제로 효과를 낸 것이다.
PARL 원칙: 병렬성은 감독이 아닌 RL에서 자연스럽게 발생한다.
13. 이미지 8: 증류를 통한 산업 확산 계단
이 다이어그램은 프론티어 모델이 단순히 자신을 서비스하는 것을 넘어 산업 전체의 훈련 데이터 소스가 된다는 것을 보여준다.
flowchart BT
GPT3["GPT-3 스케일\n원시 인터넷 텍스트로 훈련\n생성: 기초 지시 데이터"]
GPT4["GPT-4 스케일\n합성 데이터로 부분 훈련\n생성: 고품질 추론 궤적, CoT"]
DSR1["DeepSeek-R1 / o1 스케일\n검증 가능한 보상으로 RL 훈련\n생성: 소형 모델을 위한 증류 궤적"]
SMALL["소형 배포 가능 모델\n3단계 합성 데이터로 훈련\n구조화된 과제에서 GPT-4 수준"]
GPT3 -->|"더 커지기 전에는 작아질 수 없다"| GPT4
GPT4 --> DSR1
DSR1 -->|"파라미터 압축"| SMALL
NOTE["프론티어 모델의 가치 = \n단순 추론 서비스가 아닌\n전체 산업의 훈련 데이터 소스"]
각 단계 해설
GPT-3 스케일: 원시 인터넷 텍스트로 훈련. 기초 지시 데이터를 생성하는 역할.
GPT-4 스케일: 합성 데이터로 부분적으로 훈련됨. 고품질 추론 궤적과 Chain-of-Thought 데이터를 생성.
DeepSeek-R1 / o1 스케일: 검증 가능한 보상으로 RL 훈련. 소형 모델을 위한 증류 궤적(Distillation Trajectories)을 생성.
소형 배포 가능 모델: 3단계에서 생성된 합성 데이터로 훈련. 구조화된 과제에서 GPT-4와 동등한 수준 달성.
왜 먼저 커져야 하는가
단순한 비용 전략이 아니다. 능력 분리(Capability Decoupling) 가 핵심이다.
인터넷 코퍼스에서는 지식 기억과 추론 능력이 결합되어 있다. 현재의 사전 훈련 목표는 모델이 두 가지를 동시에 잘 학습하도록 요구한다. 대형 모델만이 충분히 커서 두 가지 모두를 감당할 수 있다. 그런 다음 그것을 사용해 순수한 추론 시범 데이터를 생성하면, 소형 모델은 이 데이터로 훈련하여 추론 자체에만 집중할 수 있다 — 모든 지식을 기억할 필요 없이.
핵심 통찰: 오늘 출시된 모델은 단지 하나의 스냅샷이다. 파이프라인과 하네스 프로그램이 계속 실행되는 제품이다.
14. Eval, Grader, Reward — 훈련 목표를 재정의하다
훈련 파이프라인에서 모델 출력을 훈련 점수로 변환하는 컴포넌트를 Grader라고 한다. 이것이 생각지 못한 문제를 일으킬 수 있다.
Grader의 실패 모드
- 최종 답만 보면: 모델이 지름길을 빠르게 학습한다
- 점수가 너무 거칠면: 노이즈가 RL에 의해 지속적으로 증폭된다
- 벤치마크 점수가 올라도: 실제 과제가 반드시 함께 좋아지는 것은 아니다
Verified Rewards의 부상
수학, 코드, 논리 같은 검증 가능 과제에서는 이제 프로그래밍적으로 직접 정확성에 점수를 줄 수 있다. 인간 선호도에 주로 의존할 필요가 없어졌다. 그러나 이것도 문제를 완전히 해결하지는 못한다.
- 과최적화(Over-optimization): 점수 규칙이 과도하게 최적화됨, 실제 능력은 향상되지 않음
- 보상 과적합(Reward Overfitting)
- 모드 붕괴(Mode Collapse): 출력이 고도로 단일화됨
모델의 사고 과정은 완전한 진실이 아니다
Anthropic의 추론 모델 관찰 가능성 실험에서, 모델은 추가 프롬프트를 사용하면서도 보이는 Chain-of-Thought에서는 이를 인정하지 않았다. 보상 해킹 시나리오에서는 더욱 그럴싸한 설명을 추가로 작성할 가능성이 높았다.
결론: 보이는 CoT는 훈련 및 모니터링 신호로 활용하는 것이 더 적절하다. 완전한 진실로 직접 취급할 수는 없다.
Reward Tampering과 Alignment Faking
Anthropic의 2025년 연구는 더 우려스러운 가능성을 보여준다:
- Reward Tampering (보상 조작): 보상 계산 과정 자체를 직접 조작
- Alignment Faking (정렬 위장): 표면적으로는 규칙을 따르지만 숨겨진 비정렬 의도 보유
모델이 충분히 강력한 환경 접근 권한을 가지면, 과제 결과뿐만 아니라 체크리스트, 보상 코드, 훈련 관계 자체까지 최적화할 수 있다. 이러한 행동은 표준 대화 평가에서는 보이지 않고, 에이전트 과제 환경에서만 관찰된다.
15. 에이전트 훈련: 최적화 대상이 모델 자체를 넘어선다
o1 시리즈와 DeepSeek-R1으로 대표되는 추론 모델의 급속한 성장은 새로운 차원을 열었다: 추론 컴퓨트도 확장할 수 있다.
RL 훈련의 역할이 추가되었다. 모델에게 답하는 방법을 가르치는 것뿐만 아니라, 추론 예산을 어떻게 배분할지도 가르친다 — 언제 더 많이 생각하고, 언제 멈출지를.
에이전트 훈련의 핵심 변화
과제는 환경 내에서 지속적으로 행동하는 것, 단순히 단일 사고를 길게 늘리는 것이 아니다.
flowchart LR
subgraph OLD ["이전: 추론 모델"]
QA["질문 → 생각 → 답변\n(단일 회전)"]
end
subgraph NEW ["현재: 에이전트 훈련"]
direction TB
GOAL["목표"]
--> PLAN["계획"]
--> TOOL["도구 호출"]
--> FB["환경 피드백"]
--> MEM["기억/맥락 업데이트"]
--> NEXT["다음 행동"]
NEXT --> PLAN
end
OLD -->|"패러다임 전환"| NEW
훈련 스택도 함께 바뀌었다. 브라우저, 터미널, 검색, 실행 샌드박스, 메모리 시스템, 도구 서버, 오케스트레이션 프레임워크가 모두 훈련 시스템에 들어오기 시작했다.
세 가지 에이전트 훈련 사례
Kimi K2.5 — PARL: 병렬 분해와 크레딧 할당을 오케스트레이션 레이어에 집중시킴 (이미지 7 참조)
Cursor Composer 2 — 실시간 RL:
- Self-summarization: 긴 코딩 세션에서 요약을 보상에 포함 (요약이 왜곡되면 이후 맥락이 계속 편향)
- Real-time RL: 생산 트래픽으로 지속적으로 반복, 다음 대규모 오프라인 훈련을 기다리지 않음
Chroma Context-1 — 자기 편집 검색 에이전트:
prune_chunks를 정책 자체로 훈련시킴- 검색 도중 발견한 관련 문서에도 점수 부여
- 맥락 프루닝이 검색 과정에 직접 내재화
SFT 시대 vs. 에이전트 시대
| 항목 | SFT 시대 | 에이전트 시대 |
|---|---|---|
| 핵심 요소 | 데이터 다양성 | 환경 품질 |
| 환경 특성 | 정적 검증기 | 동적, 다단계 환경 |
| 평가 기준 | 단일 답변 정확도 | 완전한 과제 신뢰성 |
| 훈련 대상 | 모델 가중치 | 모델 + 하네스 |
16. 프론티어 모델 출시 후에도 훈련 파이프라인은 계속 돌아간다
단일 사전 훈련으로 오늘날의 대형 모델을 이해하는 사고방식은 이미 부족하다. 출시된 모델 뒤에는 보통 사전 훈련, 후훈련, 증류, 전문화라는 전체 체인이 이미 완료되어 있다.
무엇이 실제로 출시되는가
최종적으로 출시되는 모델은 훈련 곡선의 가장 오른쪽 체크포인트가 아닐 수 있다. 실제 출시 전에는 여러 체크포인트 간에 반복적으로 비교한다:
- 실제 과제 결과
- 거절 응답 스타일
- 도구 안정성
- 비용
- 회귀 위험(Regression Risk)
최종 출시 버전은 제품 결정이다. 단일 지표에서 가장 강한 것이 아니다.
지속적 최적화의 단축
Cursor Composer 2의 실시간 RL은 일부 에이전트 능력이 이미 생산 트래픽을 통해 지속적으로 반복되기 시작했음을 보여준다. 훈련과 배포 사이의 경계가 사라진 것은 아니지만, 두 피드백 루프 사이의 시간이 짧아지고 있다.
flowchart LR
PROD["생산 트래픽\n(Production Traffic)"]
-->|"실시간 RL"| TRAIN["훈련\n(Training)"]
-->|"모델 업데이트"| DEPLOY["배포\n(Deployment)"]
-->|"사용자 인터랙션"| PROD
OFFLINE["오프라인 평가\n(Offline Eval)"]
-->|"결과 피드백"| PRETRAIN["사전 훈련\n개선"]
17. 앞으로 모델이 왜 강해졌는지 보는 법
2026년 현재 프론티어 모델의 가치는 점점 더 사전 훈련 이후 전체 훈련 체인을 얼마나 완전하게 실행했는가에 달려 있다.
어떤 모델이 갑자기 강해졌다고 느낀다면, 다음 세 가지를 먼저 살펴볼 것을 권한다:
첫째: 변화가 어디서 일어났는가
사전 훈련 레이어인가, 아니면 이후 훈련 프로세스인가?
많은 능력 향상은 분명히 더 강한 사전 훈련과 더 나은 데이터 레시피에서 온다. 그러나 많은 체감 변화는 주로 후훈련에서 온다. 지시를 따르는 능력, 도구 사용, 응답 스타일의 안정성 — 이런 것들은 더 많은 코퍼스를 학습시킨다고 저절로 생겨나지 않는다.
둘째: 향상이 어느 레이어에서 왔는가
| 레이어 | 요소 |
|---|---|
| 가중치와 훈련 레시피 | 모델 파라미터, 데이터 구성 |
| 보상 / 평가 / 채점 | Grader 설계, 벤치마크 선택 |
| 하네스와 배포 루프 | Prompt 구성, 도구 안정성, 검색, 기억, 요약, 맥락 편집, 체크포인트 선택 |
추론 모델과 에이전트 모델의 영역에서는, 사용자가 체감하는 “강해짐”이 기반 모델만의 결과가 아닌 경우가 많다.
셋째: 출시 버전이 무엇을 최적화하고 있는가
- 성능 상한 추구: 더 높은 정확도, 더 복잡한 과제
- 비용/지연/회귀 위험 최소화: 더 저렴하고, 더 빠르고, 더 안정적으로
- 특정 시나리오 전문화: 코딩, 수학, 특정 언어 등
모델 업데이트를 볼 때, 무엇을 최적화하고 있는지를 함께 살펴보면 실제 상황에 더 가까이 다가갈 수 있다.
18. 참고 문헌
| 논문/자료 | 설명 |
|---|---|
| Hoffmann et al. (2022). Chinchilla. arXiv:2203.15556 | 컴퓨트 최적 훈련 규모 법칙 |
| Ouyang et al. (2022). InstructGPT. arXiv:2203.02155 | 인간 피드백을 통한 지시 따르기 훈련 |
| Shao et al. (2024). DeepSeekMath / GRPO. arXiv:2402.03300 | GRPO 알고리즘 도입 |
| DeepSeek-AI (2025). DeepSeek-R1. arXiv:2501.12948 | RL을 통한 추론 능력 인센티브화 |
| DeepSeek-AI (2024). DeepSeek-V3. arXiv:2412.19437 | V3 기술 보고서 |
| Llama Team, Meta (2024). Llama 3. arXiv:2407.21783 | Llama 3 모델 패밀리 |
| Bai et al. (2022). Constitutional AI. arXiv:2212.08073 | AI 피드백을 통한 무해성 |
| OpenAI (2024). Deliberative Alignment | 추론을 통한 안전한 언어 모델 |
| Anthropic (2025). Reward Tampering | 언어 모델의 보상 조작 조사 |
| MacDiarmid et al. (2025). Natural Emergent Misalignment. arXiv:2511.18397 | 생산 RL에서의 보상 해킹으로 인한 비정렬 |
| Lee et al. (2026). Meta-Harness | 모델 하네스의 종단 간 최적화 |
| Kimi Team (2026). Kimi K2.5 Tech Blog | 시각 에이전트 지능 |
| Rush, S. (2026). Cursor Composer 2 Technical Report | Composer 2 기술 보고서 |
| Chroma (2026). Chroma Context-1 | 자기 편집 검색 에이전트 훈련 |
맺음말
오늘 출시된 모델은 단지 하나의 스냅샷이다. 파이프라인과 하네스 프로그램이야말로 계속 실행되는 진짜 제품이다.
모델이 강해지는 것을 생산 프로세스로 분해해서 보면, 많은 향상이 실제로 후반부 훈련 스택과 외부 하네스가 함께 증폭시킨 결과다. 이 체인의 반복 주기는 짧아지고 있다. 생산 트래픽이 지속적으로 훈련으로 환류되고, 각 세대의 더 강한 모델이 능력을 만들어내는 동시에 다음 세대의 감독 데이터도 생산하며, 외부 프로그램은 롤아웃, 로그, 실제 과제 피드백에 따라 계속 재작성된다.
본 문서는 Tw93(@HiTw93)의 원문 《你不知道的大模型训练:原理、路径与新实践》 및 첨부 다이어그램 8장을 바탕으로 작성된 한국어 심층 해설서입니다.