Skip to main content

실전 자동화 시나리오

여러 MCP 서버를 조합하여 강력한 워크플로를 구성할 수 있습니다. 아래는 업계에서 가장 많이 활용되는 시나리오들입니다.

시나리오 1: 데이터 파이프라인 모니터링 → 장애 알림

사용 MCP: Databricks SQL + Slack + JIRA
"어제 실행된 ETL 잡 중 실패한 것이 있는지 확인하고,
실패한 잡이 있으면 Slack #data-ops에 알리고 JIRA 티켓도 생성해"
동작 흐름:
  1. Databricks SQL MCPsystem.lakeflow.job_runs 테이블에서 실패한 잡 조회
  2. Slack MCP#data-ops 채널에 실패 요약 메시지 전송
  3. JIRA MCP→ 실패 상세 내용으로 Bug 티켓 생성
참고 Genie Code에서 구현: Databricks SQL은 Managed MCP로 기본 제공됩니다. Slack과 JIRA는 External MCP(Unity Catalog Connection)로 연결합니다.

시나리오 2: PR 리뷰 → 코드 품질 보고

사용 MCP: GitHub + Slack
"이번 주에 올라온 PR들 목록을 가져와서 리뷰 상태를 확인하고,
리뷰 안 된 PR이 있으면 Slack #engineering에 리마인더 보내줘"
동작 흐름:
  1. GitHub MCP→ 리포의 오픈 PR 목록 조회 + 리뷰 상태 확인
  2. LLM 분석→ 리뷰 지연 PR 필터링, 담당자별 그룹핑
  3. Slack MCP→ 리뷰어별 멘션과 함께 리마인더 메시지 전송

시나리오 3: 고객 문의 → 자동 응답 초안

사용 MCP: Gmail + PostgreSQL + Slack
"오늘 들어온 고객 문의 이메일을 확인하고,
고객 DB에서 해당 고객 정보를 조회한 뒤,
응답 초안을 작성해서 Slack #cs-team에 검토 요청해줘"
동작 흐름:
  1. Gmail MCP→ 미읽은 고객 문의 이메일 검색 및 내용 읽기
  2. PostgreSQL MCP→ 고객 이메일로 CRM DB에서 고객 정보, 계약 상태 조회
  3. LLM 분석→ 문의 내용 + 고객 정보를 종합하여 응답 초안 작성
  4. Slack MCP→ CS 팀 채널에 원문 + 초안 + 고객 정보 요약 전송

시나리오 4: 인시던트 대응 자동화

사용 MCP: PagerDuty/Datadog + Kubernetes + Slack
"현재 Critical 알림이 있는지 확인하고,
관련 파드 로그를 가져와서 원인을 분석한 뒤,
Slack #incident에 분석 결과를 포스팅해줘"
동작 흐름:
  1. Datadog MCP→ 활성 Critical 알림 목록 조회
  2. Kubernetes MCP→ 관련 서비스의 파드 로그 수집
  3. LLM 분석→ 로그 패턴 분석, 가능한 원인 추론
  4. Slack MCP#incident 채널에 분석 보고서 전송

시나리오 5: 스프린트 보고서 자동 생성

사용 MCP: JIRA + GitHub + Notion
"이번 스프린트의 완료/미완료 이슈를 JIRA에서 가져오고,
관련 PR의 머지 상태를 GitHub에서 확인한 뒤,
Notion에 스프린트 회고 문서를 생성해줘"
동작 흐름:
  1. JIRA MCP→ 현재 스프린트의 이슈 목록 + 상태 조회
  2. GitHub MCP→ 각 이슈에 연결된 PR의 머지 상태 확인
  3. LLM 분석→ 완료율, 지연 원인, 다음 스프린트 주의점 분석
  4. Notion MCP→ 회고 템플릿으로 문서 자동 생성

시나리오 6: 일일 업무 브리핑

사용 MCP: Google Calendar + Gmail + JIRA + Slack
"오늘 일정과 미읽은 이메일, 할당된 JIRA 티켓을 정리해서
아침 브리핑을 만들어줘"
동작 흐름:
  1. Google Calendar MCP→ 오늘 일정 조회
  2. Gmail MCP→ 미읽은 중요 이메일 요약
  3. JIRA MCP→ 나에게 할당된 In Progress / To Do 이슈 조회
  4. LLM 분석→ 우선순위 정리, 시간 배분 제안
  5. Slack MCP→ DM으로 브리핑 전송 (선택)

시나리오 7: 데이터 품질 모니터링 → 보고

사용 MCP: Databricks SQL + Google Sheets + Slack
"주요 테이블의 null 비율, 중복 레코드, 최신성을 체크하고,
결과를 Google Sheets에 기록한 뒤, 이상이 있으면 Slack에 알려줘"
동작 흐름:
  1. Databricks SQL MCP→ 데이터 품질 쿼리 실행 (null 비율, 중복, 최종 업데이트 시간)
  2. Google Sheets MCP→ 품질 메트릭을 일별 시트에 기록
  3. LLM 분석→ 임계치 초과 항목 판별
  4. Slack MCP→ 이상 항목이 있으면 #data-quality 채널에 알림

시나리오 8: 경쟁사 모니터링

사용 MCP: Brave Search + Notion + Slack
"Snowflake, Redshift 관련 최신 뉴스를 검색하고,
주요 내용을 Notion '경쟁사 인텔리전스' DB에 추가하고,
요약을 Slack #competitive에 공유해줘"
동작 흐름:
  1. Brave Search MCP→ 경쟁사 키워드로 최신 뉴스/블로그 검색
  2. LLM 분석→ 핵심 내용 추출, 비즈니스 영향도 평가
  3. Notion MCP→ 경쟁사 인텔리전스 DB에 새 항목 추가
  4. Slack MCP→ 요약 리포트를 관련 채널에 공유

시나리오 9: 코드 변경 → 문서 자동 업데이트

사용 MCP: GitHub + Confluence
"최근 PR에서 API가 변경된 부분을 확인하고,
Confluence의 API 문서를 업데이트해줘"
동작 흐름:
  1. GitHub MCP→ 최근 머지된 PR에서 API 관련 파일 변경 확인
  2. LLM 분석→ 변경된 엔드포인트, 파라미터, 응답 포맷 정리
  3. Confluence MCP→ 해당 API 문서 페이지 업데이트

시나리오 10: 주간 팀 성과 대시보드

사용 MCP: GitHub + JIRA + Slack + Google Sheets
"이번 주 팀의 PR 수, 코드 리뷰 수, 완료된 JIRA 이슈 수를 집계하고,
Google Sheets에 기록한 뒤 Slack에 요약 보고해줘"
동작 흐름:
  1. GitHub MCP→ 이번 주 PR 수, 리뷰 수, 코드 변경량 집계
  2. JIRA MCP→ 완료된 이슈 수, 스토리 포인트 합산
  3. Google Sheets MCP→ 주간 트래킹 시트에 데이터 추가
  4. LLM 분석→ 전주 대비 트렌드 분석
  5. Slack MCP#team-metrics 채널에 주간 보고

Genie Code에 외부 MCP 서버 추가하기

Databricks Genie Code에서 외부 MCP 서버를 사용하려면 Unity Catalog Connection 을 통해 연결합니다.

방법 1: Managed OAuth (권장)

Databricks가 OAuth 흐름을 관리합니다. 현재 지원되는 서비스:
서비스연결 방법
GitHubWorkspace Settings → Connections → GitHub (OAuth)
SlackWorkspace Settings → Connections → Slack (OAuth)
Google DriveWorkspace Settings → Connections → Google Drive (OAuth)
SharePointWorkspace Settings → Connections → SharePoint (OAuth)
GleanWorkspace Settings → Connections → Glean (OAuth)
JIRAWorkspace Settings → Connections → Jira (OAuth)
설정 절차:
1. Databricks Workspace → Catalog Explorer → External Connections
2. "Create Connection" 클릭
3. Connection Type: "MCP Server" 선택
4. 서비스 선택 (GitHub, Slack 등)
5. OAuth 인증 완료
6. Genie Code 설정 → MCP Servers → 생성한 Connection 추가

방법 2: Custom HTTP Connection

Streamable HTTP를 지원하는 모든 MCP 서버에 연결할 수 있습니다.
-- Unity Catalog에서 HTTP Connection 생성
CREATE CONNECTION my_mcp_server
TYPE mcp
OPTIONS (
  url = 'https://my-mcp-server.example.com/mcp',
  auth_type = 'bearer',
  token = secret('scope', 'my-mcp-token')
);

방법 3: Databricks Apps로 커스텀 MCP 호스팅

자체 MCP 서버를 Databricks App으로 배포하고 Genie Code에 연결합니다:
# app.py — FastAPI + MCP SDK
from fastapi import FastAPI
from mcp.server.fastmcp import FastMCP

app = FastAPI()
mcp = FastMCP("my-custom-tools")

@mcp.tool()
async def check_pipeline_status(pipeline_name: str) -> str:
    """데이터 파이프라인 상태를 확인합니다."""
    # Databricks API 호출
    ...

# MCP 엔드포인트를 FastAPI에 마운트
app.mount("/mcp", mcp.get_asgi_app())
# app.yaml
command:
  - uvicorn
  - app:app
  - --host=0.0.0.0
  - --port=8000
env:
  - name: DATABRICKS_HOST
    valueFrom: resources.databricks_host
resources:
  - name: databricks_host
    type: databricks_host
주의 Genie Code 제한: 전체 MCP 서버에 걸쳐 최대 20개 Tool 만 사용할 수 있습니다. 핵심 도구만 선택적으로 등록하세요.

Claude Code에 MCP 서버 추가하기

Claude Code(CLI)에서는 claude mcp add 명령어로 간편하게 추가합니다.

자주 사용하는 조합 예시

# Slack — 메시지 전송 및 검색
claude mcp add slack \
  -e SLACK_BOT_TOKEN=xoxb-your-token \
  -- npx -y @modelcontextprotocol/server-slack

# GitHub — 리포 관리, PR, 이슈
claude mcp add github \
  -e GITHUB_PERSONAL_ACCESS_TOKEN=ghp_xxx \
  -- npx -y @modelcontextprotocol/server-github

# PostgreSQL — DB 쿼리
claude mcp add postgres \
  -- npx -y @modelcontextprotocol/server-postgres \
  "postgresql://user:pass@localhost:5432/mydb"

# Notion — 문서 관리
claude mcp add notion \
  -e NOTION_API_KEY=ntn_xxx \
  -- npx -y @notionhq/notion-mcp-server

# Brave Search — 웹 검색
claude mcp add brave-search \
  -e BRAVE_API_KEY=BSA_xxx \
  -- npx -y @modelcontextprotocol/server-brave-search

# Filesystem — 로컬 파일 접근
claude mcp add files \
  -- npx -y @modelcontextprotocol/server-filesystem /path/to/project

# JIRA — 이슈 관리
claude mcp add jira \
  -e JIRA_URL=https://your-org.atlassian.net \
  -e JIRA_EMAIL=your@email.com \
  -e JIRA_API_TOKEN=xxx \
  -- npx -y mcp-server-atlassian

# 등록된 서버 확인
claude mcp list

프로젝트 설정 파일 (.mcp.json)

팀 전체가 같은 MCP 서버를 사용하도록 프로젝트 루트에 .mcp.json을 생성합니다:
{
  "mcpServers": {
    "github": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-github"],
      "env": {
        "GITHUB_PERSONAL_ACCESS_TOKEN": "${GITHUB_TOKEN}"
      }
    },
    "slack": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-slack"],
      "env": {
        "SLACK_BOT_TOKEN": "${SLACK_BOT_TOKEN}"
      }
    },
    "postgres": {
      "command": "npx",
      "args": [
        "-y", "@modelcontextprotocol/server-postgres",
        "${DATABASE_URL}"
      ]
    },
    "brave-search": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-brave-search"],
      "env": {
        "BRAVE_API_KEY": "${BRAVE_API_KEY}"
      }
    }
  }
}
${ENV_VAR} 구문으로 환경변수를 참조하면, .mcp.json을 git에 커밋해도 토큰이 노출되지 않습니다. 팀원은 각자 환경변수만 설정하면 됩니다.

시나리오별 권장 MCP 조합

역할/업무권장 MCP 서버핵심 활용
데이터 엔지니어Databricks SQL + Slack + GitHub파이프라인 모니터링, 장애 알림, 코드 관리
데이터 분석가Databricks SQL + Google Sheets + Slack데이터 조회, 보고서 자동화, 결과 공유
백엔드 개발자GitHub + JIRA + PostgreSQL + Slack코드 리뷰, 이슈 추적, DB 디버깅
DevOps/SREKubernetes + Datadog + PagerDuty + Slack인시던트 대응, 로그 분석, 알림 관리
프로덕트 매니저JIRA + Notion + Slack + Google Calendar스프린트 관리, 문서화, 일정 관리
SA/SE (솔루션 아키텍트)Databricks MCP + GitHub + Slack + Brave Search고객 지원, PoC, 기술 리서치

실전 조합 전략 심화

위의 10개 시나리오는 개별 워크플로입니다. 여기서는 여러 시나리오를 조합 하여 팀 전체의 업무를 체계적으로 자동화하는 전략을 소개합니다.

전략 1: 데이터 팀의 “아침 자동 브리핑” 시스템

매일 아침 자동으로 실행되는 종합 브리핑을 구성합니다:
[매일 오전 9시 자동 실행]
1. Databricks SQL MCP → 야간 ETL 잡 실행 결과 확인
2. Databricks SQL MCP → 주요 테이블 데이터 품질 체크
3. JIRA MCP → 미해결 데이터 이슈 티켓 현황
4. GitHub MCP → 리뷰 대기 중인 PR 목록
5. LLM 분석 → 위 정보를 종합하여 우선순위 정리
6. Slack MCP → #data-team 채널에 브리핑 전송

전략 2: “데이터 이슈 자동 에스컬레이션” 파이프라인

데이터 품질 이슈를 발견하면 자동으로 관련 팀에 알리고 추적합니다:
[데이터 품질 알림 발생 시]
1. Databricks SQL MCP → 이상 데이터 상세 분석
2. GitHub MCP → 관련 파이프라인 코드의 최근 변경 확인
3. LLM 분석 → 원인 추정 및 영향도 평가
4. JIRA MCP → 자동 티켓 생성 (원인 분석 결과 포함)
5. Slack MCP → 담당자 멘션과 함께 이슈 알림

전략 3: 역할별 MCP 조합 최적화

모든 팀원이 같은 MCP 서버를 사용할 필요는 없습니다. 역할에 따라 최적의 조합이 다릅니다:
역할필수 MCP선택 MCP도구 수 목표
데이터 엔지니어Databricks SQL, GitHub, SlackJIRA, Kubernetes8-12개
데이터 분석가Databricks SQL, Google Sheets, SlackNotion, Brave Search6-10개
ML 엔지니어Databricks SQL, GitHub, Slack, Vector SearchMLflow (UC Functions)10-15개
DevOps/SREKubernetes, Datadog/Prometheus, Slack, PagerDutyAWS, GitHub10-15개
실전 팁: 처음에는 Slack + 핵심 데이터 소스(Databricks SQL 또는 PostgreSQL) 2개만 연결하세요. 이 조합만으로도 “분석 → 결과 공유” 워크플로가 가능하며, 추가 MCP는 필요성이 입증된 후에 하나씩 추가하는 것이 가장 효과적입니다.

MCP 서버 선택 시 체크리스트

MCP 서버를 선택할 때 확인해야 할 항목들입니다:
항목확인 사항
공식 여부Anthropic 공식, 벤더 공식(Notion, AWS 등), 커뮤니티 중 어디에 해당하는가?
활성도GitHub Star 수, 최근 커밋 날짜, 이슈 응답 속도
보안API 키 관리 방식, 최소 권한 지원, 데이터 전송 암호화
전송 방식stdio만 지원? Streamable HTTP도 지원? (Databricks 연동 시 HTTP 필수)
Tool 수제공하는 Tool이 너무 많으면 LLM의 선택 정확도 하락
에러 처리실패 시 의미 있는 에러 메시지를 반환하는가?
문서화설치 가이드, Tool 설명, 예제가 충분한가?
주의 커뮤니티 서버 주의사항: 커뮤니티 MCP 서버는 공식 서버에 비해 유지보수가 불안정할 수 있습니다. 프로덕션 환경에서는 반드시 코드를 검토하고, 가능하면 공식 서버나 벤더 공식 서버를 우선 사용하세요.

MCP 서버 도입 우선순위 가이드

수많은 MCP 서버 중 어디서부터 시작해야 할지 모르겠다면, 다음 우선순위를 참고하세요: 1순위 (즉시 도입 — 모든 팀에 필수):
  • Slack(또는 Teams): 결과 공유 채널. MCP의 “마지막 1마일”
  • 핵심 데이터 소스: Databricks SQL(Databricks 환경) 또는 PostgreSQL(로컬 환경)
2순위 (팀별 선택 — 2-4주 내 도입):
  • GitHub: 개발 팀 필수
  • JIRA/Linear: 프로젝트 관리 팀 필수
  • Brave Search: 리서치가 많은 역할에 유용
3순위 (상황에 따라 — 1-2개월 내 도입):
  • Notion/Confluence: 문서화 자동화가 필요한 경우
  • Google Sheets: 보고서 자동화가 필요한 경우
  • AWS/GCP: 클라우드 인프라 관리가 필요한 경우
4순위 (고급 — 성숙 단계에서 도입):
  • Datadog/Grafana: 모니터링 자동화
  • PagerDuty: 인시던트 대응 자동화
  • Custom MCP: 사내 시스템 연동
경험적 법칙: 처음 2개 MCP 서버(Slack + 데이터 소스)로 80%의 가치를 얻을 수 있습니다. 나머지 20%의 가치를 위해 추가 서버를 도입하는 것은 기본 워크플로가 안정된 후에 진행하세요.

다음 단계