Skip to main content

왜 설정 가이드가 필요한가요?

Lakebase는 Databricks가 완전 관리하는 PostgreSQL 호환 데이터베이스이지만, 인스턴스 생성, 연결 설정, 사용자 관리, 모니터링 등 초기 설정을 올바르게 해야 안정적으로 운영할 수 있습니다. 이 문서에서는 인스턴스 생성부터 인증 설정까지의 과정을 안내합니다.
💡 관리형 데이터베이스(Managed Database): 서버 프로비저닝, 패치, 백업, 장애 복구 등 인프라 운영을 클라우드 제공자가 대신 처리하는 데이터베이스 서비스입니다. 사용자는 데이터와 쿼리에만 집중할 수 있습니다.

전체 설정 흐름

단계작업설명
1인스턴스 생성Lakebase 인스턴스를 생성합니다
2연결 설정연결 정보를 구성합니다
3테이블 생성필요한 테이블을 생성합니다
4사용자/역할 관리접근 권한을 설정합니다
5모니터링 설정모니터링을 구성합니다
6백업/복구 확인백업 및 복구 절차를 확인합니다
7운영 준비 완료프로덕션 운영이 가능합니다

1단계: 인스턴스 생성

Lakebase 데이터베이스는 세 가지 방법으로 생성할 수 있습니다.

UI를 통한 생성

  1. Databricks 워크스페이스에서 Catalog Explorer 를 엽니다
  2. 좌측 메뉴에서 원하는 카탈로그 > 스키마 를 선택합니다
  3. CreateLakebase Database 를 클릭합니다
  4. 데이터베이스 이름을 입력하고 Create 를 클릭합니다

SQL을 통한 생성

-- 기본 Lakebase 데이터베이스 생성
CREATE DATABASE my_catalog.my_schema.app_db
TYPE LAKEBASE;

-- 생성 확인
DESCRIBE DATABASE my_catalog.my_schema.app_db;

-- 결과 예시:
-- name: app_db
-- type: LAKEBASE
-- state: RUNNING
-- host: app-db-xxxx.lakebase.databricks.com
-- port: 5432

Python SDK를 통한 생성

from databricks.sdk import WorkspaceClient

w = WorkspaceClient()

# Lakebase 데이터베이스 생성
db = w.lakebase.create_database(
    catalog_name="my_catalog",
    schema_name="my_schema",
    name="app_db"
)

print(f"데이터베이스 생성 완료: {db.name}")
print(f"호스트: {db.host}")
print(f"포트: {db.port}")
print(f"상태: {db.state}")
💡 생성 시간: Lakebase 인스턴스는 일반적으로 1~3분 내에 생성됩니다. 상태가 PROVISIONING에서 RUNNING으로 바뀌면 사용 가능합니다.

2단계: 연결 설정

Lakebase는 표준 PostgreSQL 프로토콜 을 지원하므로, 기존 PostgreSQL 클라이언트와 드라이버를 그대로 사용할 수 있습니다.

연결 정보 확인

항목
호스트<database-name>-xxxx.lakebase.databricks.com
포트5432 (PostgreSQL 표준 포트)
데이터베이스명생성 시 지정한 이름 (예: app_db)
인증Databricks Personal Access Token 또는 OAuth

psql (CLI) 연결

# Personal Access Token으로 연결
psql "host=app-db-xxxx.lakebase.databricks.com \
      port=5432 \
      dbname=app_db \
      user=token \
      password=dapi_your_personal_access_token \
      sslmode=require"

# 연결 테스트
SELECT version();
-- 결과: PostgreSQL 16.x (Lakebase)

Python (psycopg2) 연결

import psycopg2

# 기본 연결
conn = psycopg2.connect(
    host="app-db-xxxx.lakebase.databricks.com",
    port=5432,
    dbname="app_db",
    user="token",
    password="dapi_your_personal_access_token",
    sslmode="require"
)

# 연결 테스트
cursor = conn.cursor()
cursor.execute("SELECT version()")
print(cursor.fetchone())
# 출력: ('PostgreSQL 16.x (Lakebase)',)

# 테이블 생성 예제
cursor.execute("""
    CREATE TABLE IF NOT EXISTS products (
        product_id  SERIAL PRIMARY KEY,
        name        VARCHAR(200) NOT NULL,
        category    VARCHAR(100),
        price       DECIMAL(10,2) NOT NULL,
        stock       INTEGER DEFAULT 0,
        created_at  TIMESTAMP DEFAULT CURRENT_TIMESTAMP
    )
""")
conn.commit()
print("테이블 생성 완료!")

Python (SQLAlchemy) 연결

from sqlalchemy import create_engine

# SQLAlchemy 엔진 생성
engine = create_engine(
    "postgresql+psycopg2://token:dapi_your_token@"
    "app-db-xxxx.lakebase.databricks.com:5432/app_db",
    connect_args={"sslmode": "require"},
    pool_size=5,        # 커넥션 풀 크기
    max_overflow=10,    # 최대 추가 연결 수
    pool_timeout=30     # 풀 대기 타임아웃 (초)
)

# pandas와 함께 사용
import pandas as pd
df = pd.read_sql("SELECT * FROM products LIMIT 10", engine)
print(df)

JDBC 연결 (Java/Scala)

jdbc:postgresql://app-db-xxxx.lakebase.databricks.com:5432/app_db?
  user=token&
  password=dapi_your_token&
  sslmode=require
⚠️ SSL 필수: Lakebase는 보안을 위해 SSL 연결만 허용 합니다. 연결 시 sslmode=require를 반드시 설정하시기 바랍니다.

3단계: 인스턴스 사이징 가이드

Lakebase는 오토스케일링 을 지원하지만, 초기 워크로드 특성에 맞는 적절한 시작점을 선택하는 것이 좋습니다.
워크로드 규모동시 연결 수데이터 크기권장 사항
소규모(PoC/개발)1~101GB 미만기본 설정으로 시작합니다
중규모(소규모 프로덕션)10~1001~50GB커넥션 풀링을 설정합니다
대규모(프로덕션)100~1,00050GB~1TB커넥션 풀링 + 읽기 전용 복제본을 검토합니다
초대규모1,000+1TB+Databricks 팀과 사이징 상담을 권장합니다
🆕 오토스케일링 (GA): Lakebase는 워크로드에 따라 자동으로 컴퓨팅 리소스를 확장/축소합니다. 스토리지는 최대 8TB 까지 자동 확장됩니다. 별도의 스케일링 작업이 필요 없습니다.

4단계: 사용자 및 역할 관리

Lakebase는 Unity Catalog 와 통합되어, Databricks의 사용자 및 그룹 체계를 그대로 사용합니다.

Unity Catalog 기반 권한 관리

-- 특정 사용자에게 데이터베이스 사용 권한 부여
GRANT USAGE ON DATABASE my_catalog.my_schema.app_db
TO `user@company.com`;

-- 특정 그룹에게 테이블 읽기 권한 부여
GRANT SELECT ON TABLE my_catalog.my_schema.app_db.products
TO `data_analysts`;

-- 특정 그룹에게 테이블 쓰기 권한 부여
GRANT SELECT, INSERT, UPDATE, DELETE ON TABLE my_catalog.my_schema.app_db.orders
TO `app_developers`;

-- 권한 확인
SHOW GRANTS ON TABLE my_catalog.my_schema.app_db.products;

역할 기반 접근 제어 패턴

역할권한대상 사용자
읽기 전용SELECT데이터 분석가, BI 사용자
읽기/쓰기SELECT, INSERT, UPDATE, DELETE앱 개발자, 백엔드 서비스
관리자ALL PRIVILEGESDBA, 플랫폼 관리자
💡 Unity Catalog 통합의 장점: Lakebase의 권한은 Unity Catalog에서 중앙 관리됩니다. OLTP 데이터와 Delta Lake 데이터의 권한을 하나의 체계로 관리할 수 있어, 거버넌스 복잡도가 크게 줄어듭니다.

5단계: OAuth 인증 설정

프로덕션 환경에서는 Personal Access Token 대신 OAuth 를 사용하는 것을 권장합니다.

서비스 프린시펄(Service Principal) 인증

import psycopg2
from databricks.sdk import WorkspaceClient

# Databricks SDK를 통해 OAuth 토큰 획득
w = WorkspaceClient()
token = w.tokens.create(
    comment="Lakebase app connection",
    lifetime_seconds=3600  # 1시간
)

# OAuth 토큰으로 Lakebase 연결
conn = psycopg2.connect(
    host="app-db-xxxx.lakebase.databricks.com",
    port=5432,
    dbname="app_db",
    user="token",
    password=token.token_value,
    sslmode="require"
)
인증 방식적합한 환경보안 수준
Personal Access Token개발, 테스트중간
OAuth (Service Principal)프로덕션 앱높음
OAuth (User-to-Machine)대화형 앱높음
⚠️ Personal Access Token 주의: PAT는 만료일을 설정하더라도 유출 위험이 있습니다. 프로덕션 환경에서는 반드시 OAuth 인증 또는 서비스 프린시펄 을 사용하시기 바랍니다.