Session Progress 9 / 12
09 개념 Level 4: Managed Automation

Hooks와 가드레일 — AI 행동에 규칙을 세우다

AI 에이전트가 강력해질수록 '무엇을 해도 되고, 무엇을 하면 안 되는지'를 명확히 정의해야 합니다.

WEEK

5주차

AI를 관리하다

TIME

30분

10분 개념 + 15분 데모 + 5분 Q&A

DELIVERABLE

없음

REFERENCE

Ch.4.8 Hooks, Ch.5.14 보안과 거버넌스

세션 개요

AI 에이전트가 강력해질수록 **“무엇을 해도 되고, 무엇을 하면 안 되는지”**를 명확히 정의해야 합니다. 이번 세션에서는 AI의 행동에 자동으로 규칙을 적용하는 Hooks와, 조직 차원에서 AI를 안전하게 운영하기 위한 가드레일 체계를 배웁니다.

학습 목표

  • Hooks의 개념과 유형을 이해하고, AI 행동을 자동으로 제어하는 원리를 설명할 수 있다
  • 가드레일의 3층 구조(소프트 가이드라인, 자동 개입, 하드 제한)를 구분할 수 있다
  • 광고 미디어렙 업무에서 보안과 거버넌스가 왜 중요한지 구체적 사례로 설명할 수 있다
  • 다음 세션(실습)을 위해 우리 팀에 필요한 규칙을 사전에 구상할 수 있다

지금까지의 여정 돌아보기

우리는 5주에 걸쳐 단계적으로 AI 활용 역량을 쌓아왔습니다.

  • Level 1 (CLAUDE.md): AI에게 우리 팀의 맥락을 알려줬습니다 — “너는 누구와 일하고, 어떤 톤으로 말해야 하는지”
  • Level 2 (Skills): 반복되는 업무를 자동화하는 스킬을 만들었습니다 — “이 작업은 항상 이렇게 해”
  • Level 3 (MCP): 외부 도구와 데이터를 연결했습니다 — “필요한 정보는 여기서 가져와”

여기까지 오면 AI 에이전트는 꽤 강력해집니다. 맥락도 알고, 반복 작업도 처리하고, 외부 시스템까지 건드릴 수 있으니까요. 하지만 강력한 도구에는 반드시 규칙이 필요합니다. 지금부터는 그 규칙을 세우는 방법을 배웁니다.

핵심 개념: 신뢰의 조건

회사에 신입 직원이 들어왔다고 상상해보세요. 아무리 똑똑한 사람이라도, 첫날부터 아무런 가이드라인 없이 “알아서 해”라고 하면 어떻게 될까요?

  • 클라이언트에게 확인 안 된 데이터를 보낼 수도 있고
  • 아직 공유하면 안 되는 내부 정보를 메일에 쓸 수도 있고
  • 팀의 보고서 양식을 무시하고 자기만의 형식으로 작성할 수도 있습니다

AI 에이전트도 마찬가지입니다. 능력이 뛰어나다고 해서 무조건 신뢰할 수 있는 것이 아닙니다.

신뢰는 경계에서 시작됩니다.

  • AI에게 경계를 정해주는 것 = 신뢰의 시작
  • 경계 없는 자유 = 사고의 시작
  • “무엇을 해도 되고, 무엇을 하면 안 되는지”를 명확히 정의해야 비로소 AI를 믿고 맡길 수 있습니다

Hooks란 무엇인가

Hook은 AI가 특정 행동을 할 때 자동으로 실행되는 규칙입니다. 사람이 매번 감시하지 않아도, 미리 정해둔 조건에 따라 AI의 행동을 제어합니다.

Hook의 유형

유형설명작동 방식
Prompt-based HookCLAUDE.md나 프롬프트에 규칙을 명시AI가 지시를 읽고 스스로 규칙을 따름
Command Hook특정 명령 실행 전후에 스크립트를 자동 실행시스템 수준에서 강제로 개입
Agent-based HookAI 에이전트의 판단 과정에 규칙을 삽입AI가 행동하기 전에 자체 검증

실무에서의 Hook 예시

예시 1: 민감 파일 보호

  • 상황: AI가 .env 파일(API 키, 비밀번호 등이 저장된 파일)을 수정하려고 시도
  • Hook 작동: 자동으로 차단하고 “이 파일은 수정할 수 없습니다”라는 메시지 표시
  • 결과: 민감 정보 유출 사고 방지

예시 2: 실행 전 확인

  • 상황: AI가 외부 API를 호출하거나 데이터를 전송하는 명령을 실행하려 함
  • Hook 작동: “이 명령을 실행하시겠습니까?”라는 확인 단계가 자동으로 추가됨
  • 결과: 의도하지 않은 데이터 전송 방지

예시 3: 출력물 자동 검증

  • 상황: AI가 보고서를 생성 완료
  • Hook 작동: 생성된 보고서에 “검토 필요” 태그가 자동으로 추가되고, 숫자가 포함된 경우 출처 확인 알림 발생
  • 결과: 검증되지 않은 보고서가 그대로 클라이언트에게 전달되는 것을 방지

가드레일의 3층 구조

AI에 적용하는 규칙은 강도에 따라 3개 층으로 나뉩니다. 각 층은 독립적이 아니라 함께 작동합니다.

┌─────────────────────────────────────────────────┐
│  Layer 3: Permissions (하드 제한)                │
│  └── ".env 파일 수정 불가"                      │
│  └── "프로덕션 DB 접근 차단"                    │
│  → 시스템이 강제로 차단. 예외 없음.             │
├─────────────────────────────────────────────────┤
│  Layer 2: Hooks (자동 개입)                     │
│  └── "매출 데이터 변경 시 확인 요청"            │
│  └── "보고서 생성 시 출처 검증 자동 실행"       │
│  → 조건 충족 시 자동으로 개입. 사람이 판단.     │
├─────────────────────────────────────────────────┤
│  Layer 1: CLAUDE.md 규칙 (소프트 가이드라인)    │
│  └── "수치에는 반드시 출처를 명시하세요"        │
│  └── "보고서는 팀 표준 양식을 따르세요"         │
│  → AI가 자발적으로 따르는 지침. 유연하지만      │
│    100% 보장은 어려움.                          │
└─────────────────────────────────────────────────┘

핵심 포인트: Layer 1만으로는 부족합니다. AI가 가이드라인을 “잊거나” 무시할 수 있기 때문입니다. 중요한 규칙일수록 Layer 2, Layer 3으로 올려야 합니다.

보안과 거버넌스가 중요한 이유

광고 미디어렙 회사에서 AI를 활용할 때, 보안과 거버넌스는 선택이 아니라 필수입니다. 구체적인 위험 시나리오를 살펴보겠습니다.

클라이언트 데이터 보호

  • 클라이언트의 매출 데이터, 마케팅 전략, 예산 정보는 기밀입니다
  • AI에 이런 데이터를 무분별하게 입력하면 유출 위험이 생깁니다
  • 가드레일: 클라이언트 식별 정보를 AI에 입력할 때 자동으로 익명화 처리

매체 예산 정보 유출 방지

  • 매체별 단가, 할인율, 커미션 구조는 회사의 핵심 경쟁력입니다
  • 경쟁사에 이 정보가 노출되면 비즈니스에 치명적입니다
  • 가드레일: 예산 관련 파일에 대한 AI 접근 시 승인 절차 추가

AI 출력물의 정확성 검증

  • AI가 생성한 미디어 성과 보고서의 숫자가 틀리면?
  • 잘못된 ROI 수치가 클라이언트에게 전달되면 신뢰를 잃습니다
  • 가드레일: AI 생성 보고서에 “AI 생성 - 검증 필요” 워터마크 자동 추가

실수한 보고서의 외부 전달 방지

  • AI가 만든 초안이 검토 없이 바로 클라이언트에게 전송되는 상황
  • 확인되지 않은 데이터, 경쟁사 정보 혼동 등의 사고 가능
  • 가드레일: 외부 전송 전 반드시 사람의 승인 단계를 거치도록 Hook 설정

라이브 데모

세 가지 시나리오를 통해 Hook이 실제로 어떻게 작동하는지 보여드리겠습니다.

데모 1: 민감 파일 접근 차단

AI에게 .env 파일을 수정해달라고 요청합니다. Hook이 이를 감지하고 자동으로 차단하는 과정을 확인합니다. AI는 “이 파일은 보안 정책에 의해 수정이 제한되어 있습니다”라는 메시지를 반환합니다.

데모 2: 출력물에 “확인 필요” 태그 자동 추가

AI에게 미디어 성과 보고서를 작성하게 합니다. 보고서가 완성되면 Hook이 자동으로 문서 상단에 “이 보고서는 AI가 생성했으며, 사람의 검토가 필요합니다”라는 태그를 삽입합니다.

데모 3: 규칙 위반 시 경고 메시지

AI에게 CLAUDE.md에 정의된 규칙을 위반하는 작업을 요청합니다(예: 출처 없는 수치 사용). Hook이 이를 감지하고 “팀 규칙에 따라 수치에는 출처를 명시해야 합니다”라는 경고를 표시합니다.

다음 세션 준비

다음 세션(세션 10)은 우리 팀의 AI 운영 가이드 초안을 작성하는 실습입니다. 아래 질문에 대해 미리 생각해오세요.

우리 팀에서 AI가 절대 해서는 안 되는 것 3가지는?

  • 예: 클라이언트 기밀 데이터를 외부 AI에 직접 입력
  • 예: 검증 없이 AI 생성 보고서를 클라이언트에게 전달
  • 예: 매체 단가표나 커미션 정보를 AI에 노출

AI 결과물을 검증하기 위한 규칙 2가지는?

  • 예: 모든 수치는 원본 데이터와 대조 후 사용
  • 예: AI 생성 문서는 팀원 1명 이상의 리뷰를 거친 후 외부 공유

팀원 간 AI 사용에 대해 합의가 필요한 부분은?

  • AI를 어디까지 활용할 것인가 (초안 작성만? 최종 문서까지?)
  • 클라이언트에게 AI 활용 사실을 공개할 것인가?
  • AI 사용 시 어떤 정보까지 입력해도 괜찮은가?

참고 자료

  • Claude Code 공식 문서: Hooks 섹션 (Ch.4.8)
  • Claude Code 공식 문서: 보안과 거버넌스 (Ch.5.14)
  • 세미나 교재: Level 4 - Managed Automation 챕터