본문 바로가기
개발/LLM

[AI][Agent] Agent-R1: 기존 AI 에이전트와 무엇이 다른가?

by ▶ Carpe diem ◀ 2025. 11. 25.

지난 몇 년간 우리는 AI 에이전트에게 '무엇을 할지'를 가르쳐왔습니다. 하지만 Agent-R1은 그 패러다임을 근본적으로 뒤흔듭니다. '어떻게 생각할지'를 가르치는 급진적인 전환을 제시했기 때문입니다. 이 차이는 단순한 수사가 아닙니다. 순수 강화학습(RL)이 이끄는 패러다임의 변화이며, 모든 AI 에이전트 개발자가 반드시 이해해야 할 핵심입니다.

 

초기 에이전트가 정해진 규칙에 따라 행동을 수행하는 데 그쳤다면, 현재의 기술적 흐름은 에이전트 스스로 문제 해결 전략을 수립하고, 오류를 수정하며, 목표를 달성해나가는 자율적 추론(Reasoning) 능력을 핵심으로 삼고 있습니다. 이러한 기술적 전환의 중심에 바로 Agent-R1이 있습니다. 전례 없는 추론 능력을 보여준 이 모델의 등장은 기존 에이전트 개발 방식에 근본적인 질문을 던지고 있습니다.

 

 

Agent-R1의 탄생: 순수 강화학습(RL)이 제시한 새로운 가능성

기존의 강력한 AI 에이전트 개발은 주로 대규모 지도학습 데이터(Supervised Fine-Tuning, SFT)에 크게 의존해왔습니다. 인간이 만든 고품질의 데이터셋을 통해 모델에게 '어떻게 행동해야 하는지'를 가르치는 방식이었습니다. 하지만 Agent-R1은 이 공식을 깨고, 순수 강화학습(Reinforcement Learning, RL) 만으로 어떻게 고차원적인 추론 능력을 스스로 발현시킬 수 있는지 증명하며 새로운 가능성을 제시했습니다.

 

DeepSeek-R1-Zero: SFT 없이 탄생한 순수 추론 모델

DeepSeek-R1-Zero는 베이스 모델인 DeepSeek-V3-Base에서 지도학습(SFT) 단계를 완전히 생략하고, 오직 강화학습(RL)만을 통해 직접 훈련된 모델입니다. 이는 AI 에이전트 개발의 전통적인 접근법에서 과감히 벗어난 시도였습니다.

 

We directly apply RL to the base model without relying on supervised fine-tuning (SFT) as a preliminary step.

 

이 순수한 RL 훈련의 결과는 충격적이었습니다. AIME 2024 수학 벤치마크에서 베이스 모델의 성능은 15.6%에 불과했지만, R1-Zero는 71.0%라는 경이로운 수치를 기록하며 극적인 성능 향상을 이뤄냈습니다. 이 과정에서 모델은 놀라운 창발적(emergent) 능력들을 스스로 터득했습니다. 복잡한 문제를 해결하기 위해 수천 토큰에 달하는 사고 과정을 생성하는 '긴 연쇄 사고(Long Chain-of-Thought)', 자신의 풀이 과정에 논리적 오류가 없는지 검증하는 '자기 검증', 그리고 풀이 도중 막혔을 때 스스로 접근법을 재평가하는 '자기 성찰' 능력이 자연스럽게 발현된 것입니다.

 

하지만 이 순수 RL 접근법은 명확한 한계도 드러냈습니다. R1-Zero의 추론 과정은 종종 인간이 이해하기 어려운 '가독성 저하' 문제를 보였고, 여러 언어가 뒤섞여 나오는 '언어 혼합' 현상도 발생했습니다. 이는 강력한 성능에도 불구하고 실용성에 대한 의문을 남겼습니다.

 

 

DeepSeek-R1: 실용성과 성능을 모두 잡은 하이브리드 모델

DeepSeek-R1은 R1-Zero의 한계를 극복하고 실용성을 확보하기 위해 설계된 하이브리드 모델입니다. 순수 RL의 강력한 추론 능력은 유지하면서 가독성과 안정성을 높이기 위해, RL 훈련 전에 소량의 '콜드 스타트(cold-start)' SFT 데이터를 도입했습니다. 또한, 여러 단계에 걸쳐 SFT와 RL을 번갈아 적용하는 다단계 훈련 파이프라인을 채택했습니다.

 

이 접근법을 통해 DeepSeek-R1은 R1-Zero의 창발적 추론 능력은 계승하면서도, 사용자가 이해하기 쉬운 일관된 형태로 답변을 생성하게 되었습니다. 이는 순수 연구의 성과를 실용적인 제품으로 발전시킨 성공적인 사례로, 성능과 안정성의 균형을 맞추는 것이 얼마나 중요한지 보여줍니다.

 

그렇다면 이처럼 강력한 강화학습 훈련을 가능하게 한 핵심 기술은 무엇일까요? 다음 섹션에서는 Agent-R1의 심장이라 할 수 있는 GRPO 알고리즘에 대해 자세히 알아보겠습니다.

 

 

 

 

핵심 구동 원리: 비평가 모델(Critic-Free) 강화학습, GRPO

Agent-R1 훈련의 기술적 핵심에는 GRPO(Group Relative Policy Optimization)라는 혁신적인 강화학습 알고리즘이 있습니다. 기존 PPO(Proximal Policy Optimization)와 같은 Actor-Critic 방식의 RL 알고리즘은 정책을 업데이트하기 위해 별도의 '비평가(Critic)' 모델을 필요로 합니다. 이 비평가 모델은 현재 상태의 가치를 평가하는 역할을 하지만, 정책 모델과 거의 동일한 크기를 가져 훈련 비용을 두 배로 증가시키는 주범이었습니다. GRPO는 바로 이 비평가 모델을 제거하여 LLM 에이전트 훈련의 효율성을 극대화한 알고리즘입니다.

PPO(Proximal Policy Optimization) vs. GRPO(Group Relative Policy Optimization) 이미지

 

 

GRPO의 핵심 아이디어는 다음과 같습니다.

  • 비평가 모델(Critic-Free) 접근: GRPO는 별도의 비평가 모델 없이 정책 모델(Actor)만으로 훈련을 진행합니다. 이를 통해 GPU 메모리 사용량과 연산 비용을 획기적으로 절감하여, 더 큰 모델을 더 효율적으로 훈련할 수 있게 만듭니다.
  • 그룹 점수 기반의 베이스라인 추정: 학습 안정화를 위해 사용되는 '베이스라인(baseline)'을 추정하는 방식도 독특합니다. GRPO는 각 질문에 대해 여러 개의 결과(output) 그룹을 샘플링합니다. 그 후 각 결과물에 대해 성공/실패 여부로 보상(reward)을 매긴 뒤, 그룹 내 결과들의 평균(µr)과 표준편차(σr)를 이용해 보상을 정규화합니다. 즉, 어드밴티지 Âi = (ri − µr) / σr 공식을 통해 개별 결과의 절대적인 점수가 아닌, 그룹 내에서의 '상대적인' 좋고 나쁨을 통해 정책을 업데이트합니다. 이는 보상 신호의 분산(variance)을 줄여 학습 과정을 안정시키는 효과를 가져옵니다.

GRPO의 이러한 설계는 Agent-R1이 단순히 정답을 맞히는 것을 넘어, 정답에 도달하기까지의 더 길고 복잡한 추론 경로를 탐색하도록 장려했습니다.

에이전트-R1 훈련 경로의 일러스트

 

 

 

 

Agent-R1은 어떻게 '생각'하는가: 4가지 핵심 동작 원리 분석

Agent-R1이 다른 에이전트들과 근본적으로 구별되는 지점은 바로 '생각하는 방식'에 있습니다. GRPO라는 강력한 엔진 위에서, Agent-R1은 단순히 주어진 명령을 수행하는 것을 넘어 스스로 문제를 분석하고, 전략을 수정하며, 막다른 길에서 탈출하는 고차원적인 동작 원리를 보여줍니다. 개발자로서 여러분이 주목해야 할 Agent-R1의 독특한 사고 과정을 4가지 핵심 원리로 나누어 심층 분석합니다.

 

다단계 추론 (Multi-Step Reasoning) & 긴 연쇄 사고 (Long CoT)

Agent-R1의 가장 두드러진 특징은 수천 토큰에 달하는 '긴 연쇄 사고(Long CoT)'를 생성한다는 점입니다. 여기서 핵심은 단순히 CoT가 길다는 사실이 아니라, 이 길이가 강화학습 훈련 목표의 결과물이라는 점입니다. RL 훈련 과정에서 모델은 더 길고 상세한 추론 경로, 즉 더 많은 '생각하는 시간'을 가질수록 최종 보상을 받을 확률이 높다는 것을 학습합니다. 그 결과, 모델은 스스로 더 많은 토큰을 생성하여 문제의 각 단계를 깊이 있게 탐색하도록 진화합니다. AIME 2024와 같은 고난도 수학 문제를 풀 때, Agent-R1은 초기 가설 설정, 공식 유도, 중간 계산, 최종 답 도출까지의 모든 과정을 내면의 독백처럼 상세하게 기록하며, 이는 장기적인 계획과 깊은 논리가 필요한 문제에서 압도적인 성능의 기반이 됩니다.

 

자기 성찰 (Self-Reflection) & '아하 모먼트(Aha Moment)'

Agent-R1 훈련 과정에서는 모델이 스스로 논리적 오류를 인지하고 추론 경로를 수정하는 '아하 모먼트(Aha Moment)' 현상이 관찰되었습니다. 이는 미리 프로그래밍된 것이 아니라, 순수 강화학습을 통해 창발적으로 나타난 능력이라는 점에서 매우 중요합니다.

√a - √a+x = x 방정식 풀이 예시에서, 모델은 초기 접근법으로 방정식을 풀어나가다가 자신의 내부 독백을 보여주는 <think> 태그 안에서 돌연 멈춥니다.

<think> ... 𝑥⁴ − 2𝑎𝑥² − 𝑥 + (𝑎² − 𝑎) = 0 . . . **Wait, wait. Wait. That’s an aha moment I can flag here.** Let’s reevaluate this step-by-step...

 

이처럼 모델은 자신의 풀이 과정이 지나치게 복잡해지거나 잘못된 방향으로 가고 있음을 인지하고 스스로 재평가를 시도합니다. 이 자기 성찰 능력은 에이전트가 단순히 정해진 경로를 따르는 기계가 아니라, 능동적으로 최적의 해결책을 찾아가는 지능체에 가까워지고 있음을 보여주는 강력한 증거입니다.

 

중간 도구 사용 (Intermediate Tool Use)

Agent-R1은 AGENTRL과 같은 프레임워크 위에서 외부 환경과 동적으로 상호작용하며 문제를 해결합니다. 이는 모델 내부에 고정된 지식에만 의존하는 것이 아니라, 필요할 때마다 외부 '도구(Tool)'를 호출하여 최신 정보를 획득하고 이를 바탕으로 다음 추론 단계를 진행하는 능동적인 문제 해결 방식입니다.

 

예를 들어, 거대한 지식 그래프(Knowledge Graph) 환경에서 특정 질문에 답하기 위해 Agent-R1은 get_relations(관계 조회), get_neighbors(이웃 노드 조회)와 같은 API를 순차적으로 호출합니다. 첫 번째 도구 호출로 얻은 정보를 바탕으로 다음 질문을 생성하고, 또 다른 도구를 호출하여 추가 정보를 얻는 과정을 반복합니다. 이처럼 정적인 정보가 아닌, 환경과의 동적인 상호작용을 통해 정보를 수집하고 추론을 전개하는 능력은 실세계의 복잡한 문제를 해결하는 데 필수적입니다.

 

실패 복구 루프 (Failure Recovery Loop)

에이전트가 복잡한 작업을 수행하다 보면 특정 행동을 반복하는 루프에 빠지는 등 막다른 길에 부딪히는 경우가 많습니다. AGENTRL 프레임워크는 이러한 실패 상황을 극복하기 위해 '교차 정책 샘플링(Cross-Policy Sampling)'이라는 독창적인 메커니즘을 사용합니다.

 

사례 분석에 따르면, GLM 모델은 정답을 추론했지만 검증 도구를 사용하지 않고 같은 결론을 반복하는 루프에 빠졌고, Llama 모델은 엉뚱한 도구를 호출하다가 실패했습니다. 하지만 교차 정책 샘플링을 사용한 GLM-Llama-Cross 정책은 달랐습니다. GLM이 루프에 빠지자, 시스템은 Llama의 정책을 샘플링하여 다른 도구 호출을 시도함으로써 루프를 탈출했습니다. 이 새로운 정보를 바탕으로 다시 GLM이 합리적인 도구를 사용하여 최종적으로 문제를 해결했습니다.

 

여기서 핵심적인 기술적 인사이트는 이 전략이 모델의 이전 버전(stale checkpoints)이나 아예 다른 모델의 정책을 의도적으로 샘플링하여 다양성을 주입한다는 점입니다. 이는 현재 정책이 국소 최적해(local optima)에 빠졌을 때, 덜 최적화되었거나 다른 접근 방식을 가진 정책을 활용하여 막힌 경로를 뚫는 강력한 탐색 전략입니다.

 

 

 

Agent-R1 vs. 기존 AI 에이전트: 패러다임의 전환

Agent-R1의 등장은 단순히 성능이 더 좋은 에이전트가 나온 것을 넘어, AI 에이전트를 설계하고 훈련하는 방식에 대한 근본적인 패러다임의 전환을 의미합니다. 기존의 ReAct, Reflexion, AutoGPT와 같은 프레임워크들이 주로 프롬프트 엔지니어링이나 소수의 예시(Few-shot)에 의존하여 LLM의 행동을 '유도'했다면, Agent-R1은 강화학습을 통해 LLM의 내재된 '추론 능력' 자체를 '학습'시킵니다. 이는 "LangChain" 등을 활용한 "LLM 응용" 개발 방식에도 새로운 시사점을 던져줍니다.

 

다음 표는 Agent-R1과 주요 에이전트 패러다임의 핵심적인 차이를 명확하게 보여줍니다.

구분 Agent-R1 ReAct 패러다임 Reflexion 패러다임 AutoGPT-류 자율 에이전트
핵심
철학
순수 강화학습을 통한 추론 능력의 내재적 발현 사고(Thought)와 행동(Action)의 순환적 결합 과거 실패 경험(메모리)을 통한 자기 성찰 및 개선 목표 달성을 위한 자율적인 계획 수립 및 실행
추론
방식
긴 연쇄 사고(Long CoT): 문제 해결을 위한 깊고 긴 내부 독백 단기적 사고-행동 루프: 각 단계별로 짧은 사고를 통해 다음 행동 결정 사후 분석 및 회고: 에피소드 종료 후 실패 원인을 분석하여 다음 시도에 반영 재귀적 계획 및 비판: 스스로 계획을 세우고, 비판하며, 하위 에이전트를 생성하여 작업을 위임
학습
메커니즘
결과 기반 RL (GRPO): 최종 결과의 성공/실패를 보상으로 사용하여 정책 전체를 최적화 주로 Few-shot 프롬프팅에 의존. 학습이 필요한 경우 지도 학습 사용 지도 학습 또는 RL을 통해 성찰 능력을 학습. 실패 궤적 데이터를 활용 사전 학습된 LLM 능력에 크게 의존. 장기적 학습 메커니즘 부재
주요 특징
및 한계
특징: '아하 모먼트' 등 창발적 자기 수정.
한계: R1-Zero의 경우 가독성 문제 발생 가능
특징: 해석 가능하고 직관적인 동작.
한계: 복잡한 다단계 추론에 한계
특징: 명시적인 실패 경험 학습.
한계: 매번 새로운 에피소드를 시작해야 하는 비효율성
특징: 높은 자율성.
한계: 할루시네이션 및 목표 이탈(derailment) 문제

 

표에서 볼 수 있듯이, 가장 근본적인 차이는 학습 메커니즘에 있습니다. ReAct나 AutoGPT가 주로 사전 학습된 LLM의 능력을 프롬프팅으로 최대한 '꺼내 쓰는' 방식이라면, Agent-R1은 최종 결과에 대한 보상을 통해 '어떻게 생각해야' 더 좋은 결과를 얻을 수 있는지를 모델 스스로 탐색하고 배우게 합니다. 즉, '어떻게 행동할까(action)'를 가르치는 것을 넘어, '어떻게 생각할까(thought)'를 강화학습을 통해 직접 최적화한다는 점에서 패러다임의 전환이라 할 수 있습니다.

 

장점과 단점

구분 장점 단점
Agent-R1 - 강력한 추론 능력: 복잡한 수학, 코딩 문제에서 SOTA급 성능 달성
- 데이터 효율성: 대규모 SFT 데이터 없이 베이스 모델에서 직접 학습 가능
-창발적 능력: 자기 성찰, '아하 모먼트' 등 예측하지 못한 문제 해결 전략 발견
- 범용 추론 능력 저하 가능성: 수학/코딩과 같은 검증 가능한 작업에 대한 RL 훈련이 사전 학습된 범용 추론 경로에서 모델을 편향시켜 오히려 일반적인 추론 능력을 감소시킬 수 있음
- 잠재 능력의 증폭, 창조가 아님: RL이 추론 능력을 '창조'하는 것이 아니라, 베이스 모델에 이미 잠재된 능력을 특정 영역에 맞게 '표면화하고 증폭'시키는 역할에 가까움
- 검증 병목 현상(Validation Bottleneck): 수학이나 코딩처럼 명확하고 프로그래밍 가능한 보상 함수를 설계하기 어려운 문제(예: 추상적 추론)에는 RL을 적용하기 어려워 실세계 적용 범위가 제한됨

 

Agent-R1의 접근법은 검증 가능한 문제에서 놀라운 성능을 보이지만, 여기에는 중요한 트레이드오프가 존재합니다. 개발자의 관점에서 가장 중요한 것은 강화학습이 만능 해결책이 아니라는 점을 이해하는 것입니다. RL은 이미 강력한 베이스 모델의 잠재력을 특정 작업에 맞게 끌어내는 '렌즈'와 같으며, 보상 설계가 불가능한 영역에서는 그 효과가 급격히 감소합니다.

 

 

 

 

 


 

 

Agent-R1은 AI 에이전트 개발의 새로운 지평을 열었습니다. 이 글에서 심층적으로 분석한 내용을 통해 우리는 Agent-R1이 단순한 성능 개선을 넘어, 에이전트의 '사고' 방식을 근본적으로 바꾸는 패러다임의 전환을 이끌고 있음을 확인했습니다.

이 글의 핵심 내용을 요약하면 다음과 같습니다.

  • 패러다임의 전환: Agent-R1은 SFT 의존도를 낮추고, RL을 통해 LLM의 내재된 '추론 능력'을 직접 인센티브화하는 새로운 방향을 제시했습니다. 이는 행동을 모방하는 것을 넘어, 생각하는 법을 배우게 하는 혁신입니다.
  • 창발적 능력의 발견: 훈련 과정에서 자발적으로 나타난 '자기 성찰'과 같은 능력은 에이전트가 단순히 주어진 경로를 따르는 것을 넘어, 스스로 문제를 해결하는 창의적인 전략을 찾아낼 수 있음을 보여줍니다.
  • 실용적 확장성: 지식 증류를 통해 소형 모델에서도 강력한 추론 능력을 구현할 수 있게 되어, 더 넓은 범위의 실무 적용 가능성을 열었습니다. 이는 고성능 AI 에이전트의 대중화를 앞당기는 중요한 열쇠가 될 것입니다.

앞으로 AI 에이전트 개발은 Agent-R1과 같은 접근법을 더욱 정교화하는 방향으로 나아갈 것입니다. 물론, 더 복잡한 실세계와의 상호작용, 모든 문제에 적용하기 어려운 보상 설계의 문제 등 해결해야 할 과제는 여전히 남아있습니다. 하지만 Agent-R1이 보여준 가능성은 분명합니다.