Skip to main content

ML 플랫폼

항목DatabricksSnowflakeAWS (SageMaker/Bedrock)GCP (Vertex AI)MS Fabric
ML 플랫폼Mosaic AI + MLflow (End-to-End 통합)Snowpark ML + Cortex (후발)SageMaker (독립 서비스)Vertex AI (독립 서비스)Synapse ML (제한적)
실험 추적MLflow Tracking (업계 표준 OSS, 19K+ GitHub Stars)자체 도구 없음SageMaker ExperimentsVertex AI ExperimentsMLflow 연동 가능
모델 레지스트리Unity Catalog Models (거버넌스 통합)Snowflake Model Registry (초기)SageMaker Model RegistryVertex AI Model Registry제한적
Feature StoreUnity Catalog Feature Store (온라인+오프라인 통합)미지원SageMaker Feature StoreVertex AI Feature Store미지원
AutoMLDatabricks AutoML (Glass-box, 코드 생성)미지원SageMaker AutopilotVertex AI AutoML제한적
데이터-ML 거버넌스학습 데이터→모델→서빙 전체 리니지 (유일)분리 (데이터/ML 별도)분리 (Lake Formation↔SageMaker)분리 (Dataplex↔Vertex AI)부분적

GenAI / LLM / Agent

항목DatabricksSnowflakeAWS BedrockGCP Vertex AIMS Fabric
Foundation Model API다양한 모델 (DBRX, Llama, Mixtral 등) — Pay-per-tokenCortex LLM Functions (제한된 모델)Bedrock (다양한 모델)Gemini + 다양한 모델Azure OpenAI 연동
모델 파인튜닝Foundation Model Fine-tuning (GUI + API)미지원Bedrock Custom ModelVertex AI TuningAzure OpenAI Fine-tuning
자체 모델 호스팅GPU Model Serving — 어떤 모델이든 호스팅Snowpark Container Services (초기)SageMaker EndpointsVertex AI Endpoints제한적
벡터 검색Vector Search — Unity Catalog 통합, Delta Sync 자동 갱신Cortex SearchOpenSearch / Bedrock KB (별도)Vertex AI Vector Search (별도)Azure AI Search 연동
RAG 구축Vector Search + Delta Sync + ai_parse_document()Cortex Search (제한적)Bedrock Knowledge BaseVertex AI RAGAzure AI 연동 필요
Agent 프레임워크Mosaic AI Agent Framework (업계 최선두)Cortex Analyst (SQL 전용)Bedrock AgentsVertex AI Agent BuilderAzure AI Agent Service
Agent 평가Agent Evaluation — 자동 품질 측정미지원제한적 (수동)제한적 (수동)제한적
Agent 도구 연결Unity Catalog Functions as Tools (거버넌스 통합)제한적Lambda FunctionsCloud FunctionsAzure Functions
성공 Databricks AI 핵심 차별화: 데이터가 있는 곳에서 바로 ML 학습, 모델 서빙, GenAI Agent 구축, 평가까지 수행합니다. MLflow(업계 표준 OSS)로 전 과정을 추적하고, Agent Evaluation으로 체계적 품질 측정이 가능합니다. 데이터 복사나 서비스 전환 없이 End-to-End AI를 구현하는 유일한 플랫폼 입니다.
주의 경쟁사 장점: AWS Bedrock은 가장 다양한 외부 LLM 모델(Anthropic Claude, Meta Llama, Cohere 등)을 지원합니다. GCP Vertex AI는 Gemini 모델과의 긴밀한 통합, 멀티모달 AI에서 강점이 있습니다. MS Fabric은 Azure OpenAI와 네이티브 연동되어 GPT-4 계열 모델을 쉽게 활용할 수 있습니다.

MLflow — 업계 표준 ML 라이프사이클 관리

MLflow 상세 비교

MLflow 는 Databricks가 만든 오픈소스 ML 라이프사이클 관리 플랫폼으로, 19K+ GitHub Stars1,600만+ 월간 다운로드 를 기록하는 업계 표준입니다.
MLflow 기능설명SageMaker 대응Vertex AI 대응
MLflow Tracking실험 파라미터, 메트릭, 아티팩트 자동 기록SageMaker ExperimentsVertex AI Experiments
MLflow Models모델 패키징 (다양한 프레임워크 지원)SageMaker ModelVertex AI Model
MLflow Model Registry모델 버전 관리, 스테이지 전환 (UC 통합)SageMaker Model RegistryVertex AI Model Registry
MLflow Evaluate모델 품질 자동 평가 (분류/회귀/LLM)수동수동
MLflow RecipesML 파이프라인 템플릿SageMaker PipelinesVertex AI Pipelines
MLflow Deployments모델 서빙 관리SageMaker EndpointsVertex AI Endpoints
오픈소스완전 오픈소스 (Apache 2.0)비공개비공개
벤더 종속Zero— 어디서든 MLflow 사용 가능AWS 종속GCP 종속

MLflow와 Unity Catalog 통합의 가치

[데이터-ML 통합 거버넌스 — Databricks만 가능]

Unity Catalog
  ├─ 학습 데이터 (catalog.schema.training_data)
  │   └─ 접근 제어: GRANT SELECT ON TABLE ...

  ├─ Feature Table (catalog.schema.features)
  │   └─ 온라인/오프라인 Feature Store 통합

  ├─ ML 모델 (catalog.schema.model_name)
  │   ├─ 버전 관리 (v1, v2, ...)
  │   ├─ 스테이지 (Staging → Production)
  │   ├─ 리니지: 어떤 데이터로 학습했는지 자동 추적
  │   └─ 접근 제어: GRANT EXECUTE ON MODEL ...

  └─ Serving Endpoint
      ├─ 모델 v2를 서빙 중
      ├─ 트래픽 분할 (A/B 테스트)
      └─ 사용 로그 → System Tables에 자동 기록
참고 경쟁사와의 핵심 차이: SageMaker에서는 학습 데이터(S3) → 모델(SageMaker Registry) → 서빙(SageMaker Endpoint)이 각각 다른 거버넌스 를 가집니다. Lake Formation은 데이터만, SageMaker는 모델만 관리하며, 둘 사이의 리니지는 수동으로 추적해야 합니다.

Feature Engineering 비교

Feature Store 상세 비교

항목Databricks Feature StoreSageMaker Feature StoreVertex AI Feature StoreSnowflakeFabric
오프라인 StoreUnity Catalog 테이블 (Delta Lake)S3 기반BigQuery/Bigtable미지원미지원
온라인 StoreDynamoDB / CosmosDB / Cloud Bigtable 자동 동기화DynamoDBBigtable미지원미지원
온라인-오프라인 동기화자동 (Serverless 파이프라인)수동/스케줄수동/스케줄N/AN/A
Feature 거버넌스Unity Catalog 통합 (접근 제어, 리니지)별도 (IAM)별도 (IAM)N/AN/A
Point-in-Time 조회자동 (시간 기반 조인)수동 구현자동N/AN/A
Feature 공유Catalog 간 공유 (Delta Sharing)AWS 계정 내GCP 프로젝트 내N/AN/A
Feature 계산SQL 또는 Python으로 정의Python SDKPython SDKN/AN/A
모델 연결모델이 어떤 Feature를 사용했는지 자동 추적수동수동N/AN/A

Feature Engineering 워크플로

단계DatabricksAWS (SageMaker)GCP (Vertex AI)
Feature 정의SQL/Python으로 DLT에서 정의Python SDKPython SDK
Feature 저장Unity Catalog 테이블로 자동 등록Feature Store API로 저장Feature Store API로 저장
학습 데이터 생성FeatureEngineeringClient.create_training_set()FeatureGroup.create_dataset()FeatureOnlineStoreService
온라인 서빙Model Serving에서 자동 Feature LookupSageMaker Endpoint + Feature StoreVertex AI Endpoint + Feature Store
모니터링Lakehouse Monitor로 Feature 드리프트 감지수동수동
성공 Feature Store의 핵심 가치: Databricks Feature Store는 Unity Catalog에 통합 되어 있으므로, Feature 테이블도 일반 테이블과 동일한 접근 제어, 리니지, 감사가 적용됩니다. SageMaker/Vertex AI의 Feature Store는 데이터 카탈로그와 분리 되어 있어, Feature에 대한 거버넌스가 별도로 필요합니다.

Foundation Model APIs 상세

모델 제공 방식 비교

항목Databricks Foundation Model APIsAWS BedrockGCP Vertex AIAzure OpenAI
제공 모델Llama 3.1, DBRX, Mixtral, Claude 등Claude, Llama, Cohere, Mistral 등Gemini, Claude, Llama 등GPT-4, GPT-3.5
과금 방식Pay-per-tokenPay-per-tokenPay-per-token / CharacterPay-per-token
파인튜닝GUI + API (모든 지원 모델)Bedrock Custom Models (일부)Vertex AI Tuning (일부)Fine-tuning (일부)
자체 모델 호스팅GPU Model Serving (어떤 모델이든)SageMaker EndpointsVertex AI EndpointsAzure ML Endpoints
프로비저닝Serverless (즉시) 또는 Provisioned ThroughputServerless / ProvisionedServerless / DedicatedProvisioned
데이터 프라이버시데이터가 고객 VPC에 유지AWS 리전 내GCP 리전 내Azure 리전 내
거버넌스Unity Catalog로 엔드포인트 관리IAMIAMAzure AD

Databricks의 모델 호스팅 유연성

호스팅 옵션설명용도
Foundation Model APIs (Serverless)Databricks가 관리하는 모델 즉시 사용빠른 프로토타이핑, 일반 AI 작업
Provisioned Throughput전용 GPU 할당으로 안정적 처리량 보장프로덕션 워크로드, SLA 필요
External Models외부 API (OpenAI, Anthropic 등) 프록시특정 모델 필요 시
Custom Model Serving자체 학습 모델 GPU 서빙커스텀 ML 모델, 파인튜닝 모델

Agent Framework 심층 비교

AI Agent 구축 프레임워크 비교

항목Databricks Agent FrameworkAWS Bedrock AgentsGCP Vertex AI Agent BuilderAzure AI Agent Service
Agent 정의Python 코드 (LangChain/LlamaIndex 호환)Bedrock Console + APIAgent Builder Console + APIAzure AI Studio
도구 연결Unity Catalog Functions as Tools (거버넌스 통합)Lambda FunctionsCloud FunctionsAzure Functions
도구 거버넌스UC 접근 제어 자동 적용IAM (수동 설정)IAM (수동 설정)Azure AD (수동 설정)
데이터 접근Unity Catalog 테이블 직접 접근S3/DynamoDB (설정 필요)BigQuery/GCS (설정 필요)Azure Storage (설정 필요)
벡터 검색Vector Search (Delta Sync 자동 갱신)Bedrock Knowledge BaseVertex AI RAGAzure AI Search
평가Agent Evaluation (자동 품질 측정)수동 테스트수동 테스트수동 테스트
배포Model Serving Endpoint (원클릭)Bedrock Agent 배포Agent Builder 배포Azure AI 배포
모니터링MLflow + System Tables (추적/비용)CloudWatchCloud MonitoringAzure Monitor
MCP 지원Genie를 MCP Tool로 노출미지원미지원미지원

Agent Evaluation — Databricks만의 고유 기능

평가 항목설명경쟁사
정확성 (Correctness)Agent 응답이 정답과 일치하는지 자동 평가수동
근거 (Groundedness)응답이 검색된 문서에 근거하는지 검증수동
관련성 (Relevance)검색된 문서가 질문과 관련 있는지 평가수동
안전성 (Safety)유해/부적절한 응답 자동 탐지수동
지연 시간 (Latency)응답 시간 자동 측정CloudWatch 등 별도
비용 (Cost)토큰 사용량 + 도구 호출 비용 자동 추적수동 계산
자동 벤치마크테스트 셋 기반 반복 평가 자동화수동 스크립트
# Agent Evaluation 코드 예시
import mlflow

results = mlflow.evaluate(
    model="models:/my-agent/production",
    data=eval_dataset,  # 질문 + 기대 답변
    model_type="databricks-agent",
    evaluators="default"  # 정확성, 근거, 관련성, 안전성 자동 평가
)

# 결과 확인
print(results.metrics)
# {'correctness': 0.85, 'groundedness': 0.92, 'relevance': 0.88, 'safety': 1.0}
성공 Agent Evaluation은 프로덕션 AI Agent의 필수 요소 입니다. Agent를 배포한 후에도 지속적으로 품질을 모니터링하고, 모델/프롬프트 변경 시 성능 저하를 조기 감지해야 합니다. 경쟁사에서는 이를 수동으로 구축해야 하며, Databricks는 MLflow 한 줄로 자동화 합니다.

RAG (Retrieval-Augmented Generation) 구축 비교

RAG 파이프라인 구성 요소

구성 요소DatabricksAWSGCPSnowflake
문서 파싱ai_parse_document() (PDF, 이미지 등)TextractDocument AI미지원
청킹내장 유틸리티 + Python수동수동미지원
임베딩 생성Foundation Model APIs (내장)Bedrock / TitanVertex AI EmbeddingsCortex Embed
벡터 저장Vector Search (Unity Catalog 통합)OpenSearch / Bedrock KBVertex AI Vector SearchCortex Search
자동 동기화Delta Sync (소스 테이블 변경 시 자동 갱신)수동/스케줄수동/스케줄수동
검색Vector Search API + 메타데이터 필터OpenSearch Query / Bedrock KBVector Search APICortex Search
거버넌스UC 접근 제어 (벡터 인덱스도 관리)IAM (서비스별 분리)IAM (서비스별 분리)Snowflake 접근 제어

Databricks RAG의 핵심 차별점: Delta Sync

Delta Sync 는 Vector Search 인덱스를 소스 Delta 테이블과 자동으로 동기화 하는 기능입니다.
소스 Delta 테이블 (문서/텍스트)

  │  [Delta Sync - 자동]
  │  ├─ 새 레코드 추가 → 자동 임베딩 + 인덱스 추가
  │  ├─ 레코드 업데이트 → 자동 재임베딩 + 인덱스 갱신
  │  └─ 레코드 삭제 → 자동 인덱스에서 제거


Vector Search 인덱스 (항상 최신 상태)
경쟁사에서는 문서가 추가/변경될 때마다 수동으로 재임베딩 + 인덱스 갱신 파이프라인 을 구축해야 합니다.

AutoML 비교

AutoML 접근 방식 차이

항목Databricks AutoMLSageMaker AutopilotVertex AI AutoMLBigQuery ML
접근 방식Glass-box(생성된 코드를 완전 공개)Black-box (모델만 반환)Black-boxSQL 기반
코드 생성완전한 노트북 코드 생성 (수정/학습 가능)미지원미지원SQL 코드
지원 유형분류, 회귀, 예측, 텍스트 분류분류, 회귀분류, 회귀, 이미지, 텍스트, 비디오분류, 회귀, 시계열
Feature Engineering자동 (코드로 투명하게 공개)자동 (비공개)자동 (비공개)제한적
하이퍼파라미터 튜닝자동 (Optuna/Hyperopt 기반, 코드 공개)자동자동자동
모델 설명SHAP 값 자동 생성SHAP 지원Feature Importance제한적
MLflow 통합자동 (모든 실험 자동 기록)SageMaker ExperimentsVertex AI Experiments미지원
참고 Glass-box AutoML의 가치: Databricks AutoML은 모델뿐 아니라 전체 코드를 생성 합니다. 데이터 사이언티스트는 이 코드를 기반으로 커스터마이징할 수 있으며, 블랙박스 모델에 대한 우려 없이 모든 과정이 투명 합니다. 규제 산업(금융, 의료)에서는 이 투명성이 필수 요구사항입니다.

모델 서빙 비교

모델 서빙 아키텍처

항목Databricks Model ServingSageMaker EndpointsVertex AI EndpointsSnowflake Container Services
서빙 유형실시간 + 배치실시간 + 배치 + 비동기실시간 + 배치실시간 (제한적)
GPU 서빙네이티브 (다양한 GPU)네이티브 (다양한 GPU)네이티브 (GPU + TPU)제한적
자동 스케일링트래픽 기반 자동 (Scale to Zero 지원)트래픽 기반 자동트래픽 기반 자동Warehouse 기반
Scale to Zero지원 (유휴 비용 Zero)지원 (웜업 시간 분 단위)지원 (웜업 시간)N/A
A/B 테스트트래픽 분할 내장트래픽 분할 지원트래픽 분할 지원미지원
Feature LookupServing 시 자동 Feature Store 조회수동 구현수동 구현미지원
모니터링MLflow + System TablesCloudWatchCloud Monitoring제한적
거버넌스Unity Catalog (엔드포인트도 관리)IAMIAMSnowflake 접근 제어

엔드포인트 유형별 비교 (Databricks)

엔드포인트 유형용도비용특징
Foundation Model APILLM 호출 (Llama, DBRX 등)Pay-per-token즉시 사용, 관리 불필요
Provisioned Throughput프로덕션 LLM (안정적 처리량)시간당 고정SLA 보장, 전용 GPU
Custom Model Serving (CPU)경량 ML 모델DBU/초Scale to Zero
Custom Model Serving (GPU)대규모 ML/DL 모델GPU DBU/초높은 처리량
External Model외부 API 프록시 (OpenAI 등)사용량 기반통합 관리/모니터링
성공 SA/SE 핵심 메시지: Databricks Model Serving은 데이터가 있는 곳에서 바로 모델을 서빙 합니다. Feature Store 자동 조회, Unity Catalog 거버넌스, System Tables 모니터링이 통합되어 있어, SageMaker Endpoint처럼 데이터를 복사하거나 별도 거버넌스를 구축할 필요가 없습니다.