Skip to main content
이 문서는 GenAI 개념 섹션의 일부입니다.

2025 Agent 생태계 트렌드

1) Agentic AI의 부상

2025년은 “LLM의 시대”에서 “Agent의 시대”로 전환하는 원년입니다. 단순히 질문에 답하는 것을 넘어, 스스로 계획하고 도구를 사용하고 결과를 검증하는 Agentic AI가 엔터프라이즈의 핵심 화두가 되었습니다.
세대특징예시
1세대 (2023)LLM 호출 + 프롬프트 엔지니어링ChatGPT, Copilot Chat
2세대 (2024)RAG + Tool Use + 단일 Agent지식 검색 봇, SQL Agent
3세대 (2025)멀티에이전트 + 자율적 워크플로Supervisor Agent, 업무 자동화 시스템

2) MCP + A2A: 도구 접근과 Agent 간 통신의 표준화

프로토콜주도목적비유
MCP (Model Context Protocol)AnthropicLLM이 외부 도구/데이터에 접근하는 표준USB-C (기기와 주변기기 연결)
A2A (Agent-to-Agent)GoogleAgent 간 통신/협업의 표준HTTP (서버 간 통신)
이 두 프로토콜이 결합되면, 서로 다른 프레임워크로 만든 Agent들이 표준 프로토콜로 도구를 공유하고 협업할 수 있게 됩니다.

3) Vibe Coding: AI가 코드를 짜는 시대

Agent가 개발자의 IDE 안에 들어와 코드를 직접 작성하는 “Vibe Coding” 트렌드가 가속화되고 있습니다.
도구특징
Claude Code터미널 기반 Agent. 파일 읽기/쓰기/실행까지 자율 수행
CursorAI 네이티브 IDE. 코드베이스 컨텍스트 이해
GitHub Copilot Agent ModePR 생성, 이슈 해결까지 자동화
Databricks AI Dev KitDatabricks 리소스 생성/관리를 IDE에서 수행

4) Agent Observability: “블랙박스를 열다”

Agent의 동작을 추적하고 디버깅하는 Observability 도구가 필수가 되었습니다.
도구특징가격
MLflow TracingDatabricks 네이티브. 자동 계측무료 (Databricks 포함)
LangSmithLangChain/LangGraph 전용유료 (월 $39~)
Arize AI모델 모니터링 + Agent 추적유료
Weights & Biases Weave실험 추적 + Agent 로깅유료

5) 프레임워크 수렴 추세

2024년의 “프레임워크 춘추전국시대”에서 2025년은 2~3개 핵심 프레임워크로 수렴하는 추세입니다.
수렴 방향설명
LangGraph오픈소스 Agent 워크플로의 사실상 표준 (de facto standard)
Databricks Agent Framework엔터프라이즈 배포/운영의 표준
OpenAI Agents SDKOpenAI 생태계 내 표준
성공 2025년 핵심 메시지: “어떤 프레임워크를 쓸지 고민하는 시간”보다 “Agent가 해결할 비즈니스 문제를 정의하는 시간”이 더 중요합니다. 프레임워크는 도구일 뿐이고, 진짜 가치는 비즈니스 문제 해결에 있습니다.

고객이 자주 묻는 질문

Q1. “어떤 프레임워크를 써야 하나요?”

A: Databricks 환경이라면 Databricks Agent Framework + LangGraph 조합을 권장합니다. LangGraph로 복잡한 Agent 로직(조건 분기, 멀티에이전트, Human-in-the-loop)을 구현하고, Databricks Agent Framework로 배포/모니터링/거버넌스를 처리하세요. 이 조합이 프로덕션까지의 가장 짧은 경로입니다.

Q2. “LangChain을 배워야 하나요?”

A: LangChain의 핵심 컴포넌트(모델, 프롬프트, 도구)는 알아두면 좋지만, Chain 기반 Agent 패턴은 레거시 입니다. 새로 시작한다면 LangGraph를 직접 배우세요. LangGraph는 LangChain의 컴포넌트를 재사용하면서 더 강력한 워크플로를 제공합니다. langchain-core, langchain-openai 같은 통합 패키지는 LangGraph에서도 그대로 사용합니다.

Q3. “프레임워크 없이 직접 구현하면 안 되나요?”

A: 간단한 Agent(1개 LLM + 2~3개 도구)는 순수 Python으로 충분합니다. 그러나 아래 요구사항이 생기면 결국 프레임워크를 다시 만들게 됩니다:
요구사항직접 구현 시 복잡도
조건 분기 / 루프높음 (상태 머신 직접 구현)
대화 메모리 관리중간 (토큰 제한 대응 필요)
에러 복구 / 재시도높음 (각 도구별 에러 처리)
Human-in-the-loop매우 높음 (상태 직렬화/역직렬화)
멀티에이전트매우 높음 (메시지 라우팅, 동기화)
Tracing / 디버깅높음 (로깅 체계 설계)
주의 경험적 법칙: “2주 안에 프레임워크를 직접 만들 수 있다”고 생각한 팀이, 6개월 뒤에 “그냥 LangGraph 썼으면…”이라고 후회하는 경우가 많습니다.

Q4. “Streamlit으로 프로덕션 배포해도 되나요?”

A: PoC/데모 목적이라면 Streamlit만으로 충분합니다. 그러나 프로덕션에서는 아래 문제가 발생합니다:
  • 인증 부재: Streamlit 자체에는 로그인/인증 기능이 없음
  • 보안: 민감한 API 키/토큰을 클라이언트 사이드에서 관리해야 함
  • 스케일링: 동시 사용자 처리에 한계
  • 감사 추적: 누가 언제 무엇을 질문했는지 기록 어려움
권장 경로: Streamlit 코드를 Databricks Apps 로 배포하세요. 코드 변경 최소화로 OAuth 인증, 서비스 프린시펄 기반 보안, 자동 스케일링이 적용됩니다.

Q5. “여러 프레임워크를 섞어 써도 되나요?”

A: 가능하지만, 명확한 역할 분담이 필요합니다. 권장 패턴은 다음과 같습니다:
레이어역할기술
Agent 로직워크플로, 조건 분기, 상태 관리LangGraph
LLM 호출모델 추상화, 프롬프트 관리LangChain Core (langchain-openai 등)
도구UC Functions, Vector Search, API 호출Databricks SDK + LangChain Tools
배포/운영서빙, 모니터링, 거버넌스Databricks Agent Framework
UI사용자 인터페이스Streamlit on Databricks Apps

연습 문제

문제 1: 프레임워크 선택 (입문)

아래 시나리오에 가장 적합한 프레임워크를 선택하고 이유를 설명하세요.
“마케팅팀이 1시간 내에 경쟁사 분석 Agent의 PoC 데모를 만들어야 합니다. 3명의 Agent(조사원, 분석가, 보고서 작성자)가 협업하는 형태입니다.”
정답 보기 CrewAI 가 가장 적합합니다.
  • 이유 1: 역할 기반 멀티에이전트가 CrewAI의 핵심 강점이며, 조사원/분석가/작성자라는 역할을 그대로 Agent에 매핑할 수 있습니다.
  • 이유 2: “1시간 내 PoC”라는 시간 제약을 고려하면 CrewAI의 선언적 API가 가장 빠릅니다.
  • 이유 3: 프로덕션이 아닌 데모 목적이므로 CrewAI의 한계(세밀한 제어, 프로덕션 성숙도)가 문제가 되지 않습니다.

문제 2: LangGraph 그래프 설계 (중급)

다음 요구사항을 LangGraph StateGraph로 설계하세요 (코드가 아닌 노드/엣지 구조).
“고객 문의를 분류(classification) -> 기술/요금/일반 중 하나로 라우팅 -> 해당 전문 Agent가 처리 -> 응답 품질을 자체 검증(reflection) -> 품질 미달이면 다시 처리, 합격이면 최종 응답”
정답 보기 노드: classify, tech_agent, billing_agent, general_agent, quality_check 엣지:
  • START -> classify
  • classify —(conditional)—> tech_agent | billing_agent | general_agent (category에 따라)
  • tech_agent -> quality_check
  • billing_agent -> quality_check
  • general_agent -> quality_check
  • quality_check —(conditional)—> END (합격) | 원래 agent 노드 (미달, 루프)
핵심 포인트: quality_check에서 원래 agent로 돌아가는 루프 가 LangGraph에서만 자연스럽게 표현 가능합니다. LangChain Chain으로는 이 패턴을 구현할 수 없습니다. 또한, 무한 루프 방지를 위해 State에 retry_count를 두고 최대 3회까지만 재시도하도록 설계해야 합니다.

문제 3: Databricks Agent Framework 아키텍처 (중급)

아래 코드의 빈칸을 채우세요.
import mlflow
from mlflow.pyfunc import _______(1)_______

class MyAgent(_______(1)_______):
    def _______(2)_______(self, messages, context=None, custom_inputs=None):
        # Agent 로직
        pass

with mlflow.start_run():
    mlflow.pyfunc._______(3)_______(
        artifact_path="agent",
        python_model=MyAgent(),
    )
정답 보기
  1. ChatAgent — Databricks Agent Framework의 표준 인터페이스
  2. predict — 동기 응답 메서드 (스트리밍은 predict_stream)
  3. log_model — MLflow에 모델 아티팩트를 로깅

문제 4: 프레임워크 비교 분석 (고급)

“LangGraph와 OpenAI Agents SDK의 가장 큰 아키텍처 차이”를 상태 관리(State Management) 관점에서 설명하세요. 정답 보기 LangGraph: 명시적 State 객체(TypedDict)를 정의하고, 모든 노드가 이 State를 읽고 수정합니다. Checkpoint를 통해 State의 스냅샷을 저장하고 복원할 수 있어, 장기 실행 워크플로와 Human-in-the-loop에 적합합니다. 개발자가 State 스키마를 직접 설계해야 하므로 유연성이 높지만 복잡합니다. OpenAI Agents SDK: 상태 관리는 주로 대화 히스토리(messages)를 통해 이루어집니다. Handoff 시 전체 대화 히스토리가 다음 Agent에게 전달되며, 별도의 State 객체는 없습니다. 간결하지만, 대화 히스토리 외의 구조화된 상태(예: 주문 처리 단계, 승인 상태)를 관리하기 어렵습니다. 핵심 차이: LangGraph는 “데이터 중심 상태 관리”(구조화된 State), OpenAI SDK는 “대화 중심 상태 관리” (메시지 히스토리)입니다.

문제 5: 실전 아키텍처 설계 (고급)

대기업 고객이 다음 요구사항을 제시했습니다. 전체 아키텍처를 설계하세요.
“사내 인사(HR) 챗봇을 만들려고 합니다. 급여 문의는 급여 시스템 API를 호출하고, 규정 문의는 사내 문서를 검색하고, 휴가 신청은 사람(HR 담당자) 승인을 받아야 합니다. 200명 직원이 동시에 사용할 수 있어야 합니다.”
정답 보기 추천 아키텍처: LangGraph + Databricks Agent Framework + Databricks Apps LangGraph 워크플로 설계:
  • Triage Node: 질문 분류 (급여/규정/휴가/기타)
  • Salary Node: 급여 시스템 API 호출 (UC Function as Tool)
  • Policy Node: Vector Search로 사내 규정 문서 RAG
  • Leave Node: 휴가 신청서 생성 -> interrupt_before로 HR 담당자 승인 대기 -> 승인 시 인사 시스템에 등록
  • Quality Check Node: 응답 적절성 검증 (Reflection)
Databricks 컴포넌트:
  • 배포: Databricks Model Serving (서버리스, 200명 동시접속 자동 스케일링)
  • 도구: Unity Catalog Functions (급여 API, 인사 시스템 API) — 권한 자동 적용
  • 검색: Databricks Vector Search (사내 규정 문서 인덱스)
  • 모니터링: MLflow Tracing (모든 대화/도구 호출 기록)
  • 피드백: Review App (HR팀이 응답 품질 평가)
  • 감사: Inference Tables (모든 요청/응답 Delta 테이블 자동 저장)
  • UI: Streamlit on Databricks Apps (OAuth 통합으로 SSO 로그인)
  • 안전성: AI Guardrails (개인정보 유출 방지)
핵심 포인트:
  1. 휴가 신청의 Human-in-the-loop은 LangGraph Checkpoint의 interrupt_before로 구현
  2. 200명 동시접속은 Model Serving의 서버리스 자동 스케일링으로 해결
  3. 급여 데이터 접근 권한은 UC Function의 GRANT/REVOKE로 통제

참고 자료

공식 문서

프로토콜 표준

프로토콜문서 URL
MCP (Model Context Protocol)https://modelcontextprotocol.io/
A2A (Agent-to-Agent)https://google.github.io/A2A/

추가 학습 자료


README로 돌아가기