Agentic AI Conference 2026 — Day 2
출처: Future of Data and AI: Agentic AI Conference - Day 2
주최: Data Science Dojo
일정: 2026년 4월 6일~10일 (완전 온라인, Fully Virtual)
작성일: 2026-04-08
개요
Data Science Dojo가 주관하는 Agentic AI Conference 2026의 둘째 날(Day 2) 세션 전체 내용을 정리한 문서입니다. 본 컨퍼런스는 110,000명 이상의 누적 참가자를 보유한 대규모 버추얼 행사로, 이번 2026년 에디션은 5일간 패널 토론, 튜토리얼, 핸즈온 워크숍으로 구성되어 있습니다.
Day 2는 툴과 실전 구현에 집중한 튜토리얼 중심 세션으로, 총 5개의 주요 세션이 진행되었습니다.
세션 1: 개회사 및 컨퍼런스 현황 공유
발표자: Rebecca Merritt (Data Science Dojo 기술 콘텐츠 담당)
참가자 현황
이번 컨퍼런스에는 전 세계 68,000명 이상이 등록했으며, 미국과 인도를 중심으로 아시아, 유럽, 아프리카 등 모든 대륙에서 참가자가 모였습니다. Rebecca는 단순히 미국 중심이 아닌 글로벌 커뮤니티의 성장을 강조했습니다.
Day 1 요약
Day 1에서는 4개의 패널 토론과 2개의 튜토리얼이 진행되었습니다. 패널 주제는 다음과 같습니다:
- AI 거버넌스(Governance): 책임감 있는 AI 스케일링을 위해 반드시 이해해야 할 필수 지식
- 실제 배포의 현실: 실패한 프로젝트에서 배우는 교훈
- 보안 위협과 리스크: AI 시스템을 위협하는 요소와 대비책
- 기술 부채(Technical Debt): AI 행동의 일관성 부재, 인지 부하, 과도한 기술 스택 복잡성
AI 파일럿 실패율 경고
Rebecca는 MIT의 2025년 보고서를 인용하며 충격적인 통계를 공유했습니다: AI 파일럿 프로젝트의 95%가 완전히 실패하며 투자 수익을 전혀 창출하지 못한다는 것입니다. 이는 산업 전체가 AI를 처음부터 끝까지 지속 가능하게 운영하는 방법에 대해 여전히 가파른 학습 곡선을 겪고 있음을 보여줍니다.
폴 설문 결과
Day 1에서 참가자들을 대상으로 진행한 폴 결과가 공유되었습니다:
- 지역: 미국, 인도 외에도 전 세계 모든 대륙에서 참가
- 직무: 컨설팅과 소프트웨어 엔지니어링 비중이 가장 높았으며, 데이터 사이언스, 제품 관리, 거버넌스, AI 도구 평가 등 다양한 역할 포함
- 주요 업무: AI 모델 구축과 전략·로드맵 수립이 상위를 차지했고, 배포, 인프라, 윤리 거버넌스도 포함
- 경력: 학생부터 리드·수석 레벨까지 다양하며, 특히 6~10년 경력의 시니어 인력이 다수 참가
- 가장 흥미로운 에이전트 기능(복수 응답): 자율 태스크 실행이 1위, 멀티에이전트 협업이 2위, 그 외 멀티모달 추론, 코드 생성, 휴먼 인 더 루프, 도구·API 활용 순
세션 2: Docker가 AI 코딩 에이전트 보안을 구축하는 방법
발표자: Michael Earlburn (Docker)
배경: 자율성과 가드레일
Michael은 AI 도입의 스펙트럼을 다음과 같이 설명했습니다:
- 자동완성(Autocomplete): 가장 단순한 형태. 코드 한 줄 완성. 상태 없음(Stateless). 인간이 완전히 주도.
- AI 어시스턴트(Assistant): 대화형. 메모리와 컨텍스트 보유. 특정 작업 수행.
- 전문가 멀티에이전트(Specialist Multi-Agent): 스펙 작성, 코드 변경, 구현, 검증 등을 각각의 에이전트가 담당. 팀 구조와 유사.
- 완전 자율 에이전트(Full Autonomous): AI가 데이터와 입력에 기반해 스스로 다음 작업을 결정.
현재 대부분의 기업은 1~2단계에 머물러 있으며, 3단계를 탐색 중인 곳은 소수입니다.
실제 발생한 AI 사고 사례
Michael은 AI 에이전트의 위험성을 다음 실제 사례로 설명했습니다:
- Claude CLI가 홈 디렉토리를 삭제한 소셜미디어 사례
- AI가 잘못된 외장 하드를 포맷한 사례
- 해커가 Claude를 이용해 1억 9,500만 명의 납세자 정보가 담긴 150GB 데이터를 유출한 Los Angeles Times(2026년 2월) 보도
- 개발자의 프로덕션 데이터베이스 전체 삭제, Terraform apply 오작동 사례
기존 대응 방식의 한계
많은 조직들이 사용하는 기존 대응책과 그 한계:
| 대응책 | 한계 |
|---|---|
| 컨텍스트 파일에 금지 목록 작성 | 특정 도구에만 유효, 우회 가능 |
| 컨테이너 사용 (격리 없음) | 공유 커널은 여전히 위험 |
| 환경 변수에 크리덴셜 저장 | 에이전트가 접근하면 유출 가능 |
| 인간이 모든 것을 수동 승인 | 비효율적, 확장 불가 |
데모 시연: Michael은 secrets.txt 파일을 읽지 말라고 지시한 후, Claude에게 파이썬 스크립트를 작성시켜 해당 파일을 우회 접근하는 것을 직접 시연했습니다. 이는 단순 금지 목록의 취약성을 명확히 보여주었습니다.
Docker Sandbox: 핵심 보안 솔루션
Docker는 컨퍼런스 일주일 전에 Docker Sandbox를 새롭게 출시했습니다.
아키텍처 구조
1
2
3
4
5
6
7
호스트 머신
└── MicroVM (격리 레이어)
└── 에이전트 컨테이너 (Claude CLI 등)
├── 마운트된 워크스페이스 (지정된 디렉토리만)
└── 네트워크 프록시 (모든 HTTP/HTTPS 요청 경유)
├── 네트워크 정책 적용
└── 크리덴셜 주입 (에이전트는 실제 키를 모름)
주요 특징
- MicroVM 격리: 에이전트가 호스트 머신에 접근 불가. 지정된 프로젝트 디렉토리만 마운트.
- 네트워크 프록시: 모든 HTTP/HTTPS 요청이 프록시를 통과. 허용/차단 목록 실시간 관리 가능.
- 크리덴셜 시크릿 엔진: 에이전트는 실제 API 키를 알지 못함. 프록시가
proxy_manage토큰을 실제 키로 교체해 주입. OS 키체인에 암호화 저장. - 포트 동적 퍼블리싱: 기존 Docker와 달리, 실행 중인 샌드박스에서도 포트를 동적으로 열고 닫을 수 있음.
- 브랜치 모드(Git Work Tree): 여러 에이전트가 동일 코드베이스를 서로 다른 브랜치에서 동시에 작업 가능.
실제 데모: rm -rf * 실행
샌드박스 내에서 파일 시스템 전체를 삭제하는 명령을 실행했을 때, 호스트 머신은 전혀 영향을 받지 않았으며, 샌드박스만 종료되었고 새 샌드박스를 즉시 실행해 작업을 재개할 수 있었습니다.
설치 및 사용법
1
2
3
4
5
6
7
8
9
10
11
12
13
14
# macOS
brew install sbx
# 크리덴셜 설정 (글로벌)
sbx secret set ANTHROPIC_API_KEY --global
# Claude 샌드박스 실행
sbx run claude
# 샌드박스 목록 조회
sbx ls
# 네트워크 정책 관리 (TUI)
sbx
참고: Docker Desktop 없이 독립 실행 가능. Linux 패키지는 곧 출시 예정. 무료로 사용 가능.
Docker MCP Toolkit: MCP 서버 격리
MCP(Model Context Protocol) 는 에이전트가 외부 도구와 안전하게 연결하기 위한 업계 표준 프로토콜입니다. Docker는 MCP 서버를 컨테이너로 격리하는 MCP Toolkit을 Docker Desktop에 번들로 제공합니다.
기존 MCP 설정의 문제점
기존 방식(npx, uvx 명령 사용)의 문제:
- 호스트 머신에서 직접 실행 → 머신 전체에 접근 가능
- 공급망 공격(Supply Chain Attack) 취약
- 크리덴셜이 설정 파일에 평문으로 저장
- 여러 프로젝트에 크리덴셜이 분산
Docker MCP Gateway 해결책
1
2
# 격리된 컨테이너에서 MCP 서버 실행
docker mcp gateway run --profile=default
- NPX, UVX 설치 불필요
- MCP 서버가 컨테이너 내에서 격리 실행
- 크리덴셜이 설정 파일에 없음 (시크릿 엔진 사용)
- 컨테이너화된 MCP 카탈로그: GitHub, AWS, Heroku, Grafana 등 다수
커스텀 카탈로그
조직 내부의 MCP 서버를 사내 카탈로그로 배포하고, 직원들이 승인된 MCP 서버만 사용하도록 정책을 설정하는 기능이 곧 출시 예정입니다.
MCP vs. Claude Connectors 차이점
| 항목 | MCP | Claude Connectors |
|---|---|---|
| 표준 | 업계 오픈 표준 | Anthropic 독자 |
| 호환성 | Claude, Gemini, Codex 등 모든 에이전트 | Claude 전용 |
| 유연성 | 에이전트 간 자유롭게 전환 가능 | Claude에만 사용 가능 |
엔터프라이즈 로드맵
Docker가 MCP Toolkit과 Sandbox 통합(곧 출시) 이후 구현할 예정인 엔터프라이즈 기능:
- 전사 네트워크 정책 관리: 조직 전체에 일관된 보안 정책 적용
- 전체 감사 로그(Audit Trail): 모든 에이전트 액션 기록
- 킬 스위치(Kill Switch): 오작동 에이전트 즉시 종료
- PII 리덕션: 개인 식별 정보 자동 마스킹
- 크리덴셜 중앙 관리: 조직 단위 시크릿 관리
세션 3: AMD GPU에서 AI 에이전트 실행하기
발표자: Maddie Gotsy + Edida (AMD AI Solution Architects)
LLM vs. AI Agent: 개념 정리
Maddie는 많은 개발자들이 LLM과 AI 에이전트를 혼동한다고 지적하며 명확히 구분했습니다:
LLM (대형 언어 모델)
- 핵심: 텍스트 예측 엔진. 프롬프트를 받아 다음 토큰을 예측.
- 수조 개의 텍스트로 훈련되어 매우 정교함
- 할 수 없는 것: 외부 시스템 액션, 대화 간 메모리 유지, 멀티스텝 프로세스, 자체 출력 검증
AI Agent
LLM에 메모리 + 계획(Planning) + 실제 액션 능력을 추가한 것:
- 코드 실행, API 호출, 파일 읽기/쓰기
- ReAct 루프(Reasoning-Acting) 패턴으로 작동
- 2022년 논문에서 제안된 업계 표준 접근법
ReAct 루프 상세 설명
1
2
3
4
5
1. Reason → 현재 상황과 목표를 기반으로 다음 행동 결정
2. Act → 도구 선택 및 실행 (코드 실행, API 호출 등)
3. Observe → 결과 확인 → 완료 여부 판단
└── 미완료 시: 1번으로 돌아가 반복
└── 완료 시: 종료
예시: “테스트 실패를 수정해달라” 요청 시
- 테스트 출력 읽기 → 오류 분석 → 파일 수정 → 테스트 재실행 → 통과 확인 → 종료 (인간 개입 없음, 3회 루프)
루프의 중요성
루프 없이 한 번에 해결하는 방식(One-shot)의 한계:
- 결과가 실제로 작동하는지 확인 불가
- 루프를 통해 모델이 자신의 작업을 직접 검증
- 흥미로운 발견: 루프 설계가 좋으면 파라미터가 적은 소형 모델도 대형 모델의 원샷 성능을 능가할 수 있음
AI 에이전트의 3가지 핵심 구성요소
| 구성요소 | 역할 | 설명 |
|---|---|---|
| Model | 추론 엔진 | 무엇을 할지 결정 |
| Runtime | 배관(Plumbing) | 루프 관리, 컨텍스트 처리, 도구 실행, 장애 복구 |
| Tools | 에이전트의 손 | 파일 읽기/쓰기, API 호출, 코드 실행, 메시지 전송 |
에이전트 프레임워크 생태계
2023~2026년 동안 폭발적으로 성장한 주요 프레임워크들:
| 프레임워크 | 특징 |
|---|---|
| LangChain | 복잡한 그래프 기반 파이프라인 |
| CrewAI | 멀티에이전트 조율에 특화 |
| LlamaIndex | RAG 애플리케이션과 소형 에이전트 |
| Smolagents (HuggingFace) | 코드 우선(Code-first) 접근 |
공통점: 모든 프레임워크가 루프 오케스트레이션, 컨텍스트 관리, 에러 복구, 옵저버빌리티라는 동일한 문제를 해결하고 있음.
OpenClaw: 프레임워크가 아닌 퍼시스턴트 에이전트
OpenClaw는 기존 프레임워크와 근본적으로 다른 접근 방식을 취합니다:
| 항목 | 기존 프레임워크 | OpenClaw |
|---|---|---|
| 유형 | 라이브러리/프레임워크 | 퍼시스턴트 프로세스 |
| 실행 방식 | 스크립트 실행 후 종료 | 항상 실행 중 |
| 이벤트 처리 | 요청-응답 | 시간과 이벤트를 1급 입력으로 처리 |
| 예시 | 요청하면 응답, 그 다음 종료 | Cron 작업, 웹훅, 하트비트 타이머 |
OpenClaw 작동 원리
- 메시지 수신: Slack, Discord, Telegram, iMessage 등 다양한 채널 지원
- 세션 큐: 각 대화는 독립적인 직렬화된 큐 보유 → 레이스 컨디션 방지
- 프롬프트 조립: 도구 목록, 스킬 카탈로그, 부트스트랩 파일, 대화 히스토리를 결정론적으로 조합
- 모델 실행: 도구 호출 결정 및 실행
- 루프: 완료 시까지 반복 후 응답
OpenClaw의 핵심 마크다운 파일들
| 파일 | 역할 |
|---|---|
agent.md | 에이전트 규칙과 지시사항 |
soul.md | 에이전트 정체성, 가치관, 성격 |
tools.md | 사용 가능한 도구 목록 |
memory.md | 대화 간 메모리 (자동 업데이트) |
OpenClaw의 자기 인식 능력
OpenClaw는 자신의 소스 코드를 알고 있어, 설정 오류를 직접 수정하고 게이트웨이를 재시작할 수 있습니다. 예를 들어 멀티모달 모델을 추가할 때 비전 설정이 누락된 경우, 에이전트에게 프롬프트로 알려주면 스스로 설정 파일을 수정하고 재시작합니다.
AMD GPU 활용: 무료 크레딧 제공
AMD는 AMD Developer Program을 통해 개발자에게 무료로 GPU 컴퓨팅 자원을 제공합니다:
- GPU: AMD MI300X (192GB VRAM)
- 비용: 시간당 약 $2
- 무료 크레딧: $100 (약 50시간 사용 가능)
- 추가 혜택: 딥러닝 AI 구독 1개월
오픈소스 추천 모델 (Tool-Calling 지원)
| 모델 | 제공사 |
|---|---|
| Gemma | |
| Qwen 3.5 | Alibaba |
| Kimi | Moonshot |
| MiniMax | MiniMax |
| GPT-OSS | OpenAI |
AMD GPU에서 OpenClaw + Qwen 3.5 실행
1
2
3
4
5
6
7
8
9
10
11
# 1. vLLM으로 모델 서빙
vllm serve Qwen/Qwen2.5-72B-Instruct-FP8
# 2. OpenClaw 온보딩
openclaw onboard
# 3. OpenClaw 실행 (터미널 UI)
openclaw
# GPU 모니터링
rocm-smi
핵심 장점: API 비용 없음, 레이트 리밋 없음, 데이터가 외부로 나가지 않음, 모델을 완전히 통제 가능.
세션 4: Samanova — 에이전틱 AI 인프라 위기 해결
발표자: Quasanka (Samanova, Director of AI Solutions Engineering)
에이전틱 AI 인프라의 현실
Anthropic이 Claude의 가격 정책을 변경한 배경 설명: 기존 가격 모델은 웹 포털을 통해 하루 2시간 정도 사용하는 인간 사용자를 기준으로 설계되었습니다. 하지만 OpenClaw 같은 항상 켜져 있는 에이전트는 24/7 토큰을 소비하며, 이는 완전히 다른 컴퓨팅 패러다임을 요구합니다.
Nvidia의 Grok 인수, Anthropic의 Fast Mode 6배 가격 프리미엄 등은 모두 빠른 추론이 시장에서 얼마나 중요한지를 보여주는 신호입니다.
에이전트가 신경 쓰는 핵심 3가지 지표
- 엔드-투-엔드 레이턴시: 요청부터 태스크 완료까지의 시간
- 태스크당 총 비용: 수백 번의 LLM 호출 누적 비용
- 정확도: 에이전트가 올바른 결과를 내는 비율 (특히 의료, 보험 등 규제 산업)
인프라 스펙트럼: GPU vs. 커스텀 실리콘
1
2
3
4
5
6
7
8
9
10
[GPU (B200 등)] [초고속 (Cerebras 등)]
- 높은 배치 크기 - 매우 빠른 토큰 생성
- 낮은 레이턴시 예산 - 스케일링 어려움
- 인터랙티브 사용 시 40~70 TPS - 수천 사용자 지원 시 급격한 하드웨어 증가 필요
↓
[Samanova의 골디락스 존]
- 사용자당 300~400 TPS 유지
- 낮은 하드웨어 풋프린트로 다수 사용자 지원
- 전력 효율 10배 향상 (10~12kW vs GPU 120kW)
Samanova RDU (Reconfigurable Dataflow Unit) 특징
Samanova는 GPU가 아닌 자체 개발 칩(RDU) 을 사용합니다:
- SM40 (현재): 10~12kW/랙 (GPU 대비 1/10 전력)
- SM50 (2026 Q4 출시): 더 높은 성능, 20~25kW/랙
- 256개 가속기 확장 가능
- 최대 10조 파라미터 모델 지원
- DeepSeek 671B를 풀 정밀도(Full Precision)로 실행 가능
Agentic Caching: 멀티에이전트 핵심 기술
멀티에이전트 시스템에서 여러 모델을 빠르게 전환하는 것이 핵심입니다:
| 시나리오 | GPU (캐시) | SM50 |
|---|---|---|
| Llama 70B 모델 전환 | 1.5초 | 0.2초 |
| DeepSeek 671B 전환 | 6초 | 0.5초 |
수십 번의 LLM 호출이 연쇄될 때 모델 전환 시간이 누적되면 수 분의 차이가 발생합니다. Samanova는 3단계 메모리 구조(HBM, 오프칩 DRAM, DVR)를 활용해 모델을 밀리초 단위로 교체합니다.
실제 데모: 자율 데이터 분석 파이프라인
MiniMax 2.5를 사용해 Kaggle 스타일 데이터셋을 입력하고 “최적 모델을 찾아 보고서를 작성하라”고 지시했을 때, 2분 이내에 EDA(탐색적 데이터 분석), 모델 선택, 8페이지 보고서가 자동 생성되었습니다.
모델 선택 전략
| 단계 | 권장 모델 | 이유 |
|---|---|---|
| 오케스트레이터/플래너 | 대형 추론 모델 | 복잡한 계획 수립 |
| 웹 검색 에이전트 | Llama 8B / 70B | 단순 도구 호출 |
| 코딩 에이전트 | MiniMax, Llama Maverick | 코드 특화 |
| 최종 검증 | 대형 모델 | 정확도 보장 |
사용 사례
- 음성 AI (Hume 등): 초저레이턴시 요구 → Samanova에 최적
- 보안 중심 환경: 국립연구소 등 온프레미스 배포 지원
- 데이터센터 전력 제약: 기존 인프라에 낮은 전력으로 고성능 추론 제공
- 코드 생성: MiniMax + Samanova로 GPU 대비 훨씬 저렴하게 고성능 코딩 에이전트 운영
세션 5: AI 프로젝트는 왜 실패하는가
발표자: Raja Kabel (Aento AI 창업자 / Data Science Dojo 강사 / University of Pittsburgh 겸임교수)
이 세션은 기술 중심이 아닌, AI 도입의 조직적·비기술적 측면에 집중합니다.
핵심 역설: 파일럿 풍요, 전환 빈곤
모든 기업이 AI에 투자하고 있고, 파일럿은 성공하는 것처럼 보입니다. 하지만 광범위하게 배포하면 실패합니다. 왜일까요?
근본 원인: 기업은 AI를 표면적으로 도입하지만, 운영 모델을 바꾸지 않고 기존 워크플로우를 그대로 유지합니다. AI가 정말로 효과를 내려면 기업 전체를 근본적으로 재설계해야 합니다.
7가지 핵심 마찰 포인트
1. 파일럿 난립 (Pilot Proliferation)
- 각 파일럿이 “섬”처럼 격리되어 반복 가능한 경로가 없음
- 질문해야 할 것: “이 파일럿에서 표준 회사 워크플로우까지의 반복 가능한 경로는 무엇인가?”
- AI Slop 문제: AI 사용 부주의로 오히려 더 많은 수정 작업이 발생하는 역효과
2. 생산성 격차 (Productivity Gap)
- 개인 수준의 생산성 향상이 재무제표에는 나타나지 않음
- 핵심 질문: “AI가 절약해준 시간이 어디에 재투자되는가? 그 재설계를 누가 담당하는가?”
3. 프로세스 부채 (Process Debt)
- 망가진 프로세스는 수리가 아닌 재건(Rebuild) 이 필요
- 데이터 품질이 낮으면 AI도 쓸모없음 (“Garbage In, Garbage Out”)
- 핵심 질문: “AI가 안정적으로 실행될 수 있도록 프로세스를 처음부터 재설계했는가?”
4. 부족 지식 문제 (Tribal Knowledge)
이것이 가장 심각한 격차입니다. ChatGPT, Claude, Gemini 등 어떤 모델도 문서화되지 않은 조직 내부 지식은 알 수 없습니다.
- 30~40년 경력의 공장 노동자가 머릿속에만 갖고 있는 노하우
- 20년 근속 접수 담당자의 암묵적 업무 지식
- 회의에서 구두로만 전달되는 의사결정 맥락
해결책: 지식 포착을 비용 절감이 아닌 “레거시 구축, 업무 개선”으로 프레이밍해야 합니다. 비용 절감 프레임으로 접근하면 직원들이 방어적이 되어 협조를 거부합니다.
미래 전망: 모든 회의 자동 녹취, 업무 과정 중 음성 기록 등을 통해 조직 지식을 체계적으로 포착하는 것이 불가피해질 것입니다.
5. 거버넌스 부재 (Governance)
OpenClaw 사례처럼, 자율성을 부여받은 에이전트는 스스로 자신의 가드레일을 수정하기도 합니다. 실제 사례:
- Replit 에이전트가 프로덕션 데이터베이스 삭제
- Lovable 에이전트 오작동 사례
권장 접근법:
- 에이전트를 관리되는 직원처럼 취급 (온보딩, 권한 부여, 성과 모니터링, 규정 준수)
- 조직의 비협상적 인간 승인 게이트 명확히 정의 (예: AI 간호사는 절대 처방 불가)
- 에이전트 역할 상승(Role Elevation) 방지 - 에이전트가 스스로 자신의 권한을 높이지 못하게 함
6. 아키텍처 복잡성 (Architectural Complexity)
- 기업 환경은 복잡하게 얽혀 있어 AI 레이어 추가 전 전제 조건이 많음
- 플랫폼 진화 속도가 초기 가정을 무효화할 수 있음
7. 효율성 함정 (Efficiency Trap)
- AI 도입을 인원 감축 운동이 아닌 가치 창출과 경쟁 우위 도구로 프레이밍해야 함
- 잘못된 프레이밍 → 직원 저항 → 채택 실패
AI 성공적 확장을 위한 원칙
1. 비즈니스 우선
- 기술 문제가 아닌 비즈니스 문제로 접근
- KPI와 이동해야 할 지표 명확히 정의
- AI 전환의 병목 지점 파악
2. 전 조직 AI 리터러시 (가장 과소평가된 영역)
Raja는 전 직원의 AI 교육을 3단계로 구분했습니다:
| 단계 | 대상 | 필요 역량 |
|---|---|---|
| AI Aware | 모든 직원 | 기본 프롬프트 작성, AI 작동 원리 기초, 활용 가능성 인식 |
| AI Ready | PM, PgM, PO, 데이터 관리자 | 도메인에서 AI 기회 식별, AI 팀과 협업, 광범위한 이니셔티브 기획 |
| AI Capable | 개발자, 데이터 사이언티스트 | 실제 구축 및 구현 |
핵심 메시지: “AI 역량 있는 자”만 교육하는 것이 가장 큰 실수입니다. 리더십, PM, 현장 직원까지 모두 AI 교육이 필요합니다.
인력 변화 예측:
- 단순 전문가(코드만 잘 쓰는 개발자, 블로그만 잘 쓰는 마케터)는 점차 대체될 것
- 살아남는 유형: 멀티-디멘셔널 제너럴리스트 - 코드를 쓸 수 있으면서 고객 공감 능력과 비즈니스 판단력도 갖춘 사람
- 가장 유망한 역할: AI 프로덕트 매니저 (비즈니스 이해 + AI 기술 이해 + 고객 공감 능력)
3. 거버넌스 중심 접근
- ID/접근 제어(RBAC), 데이터 거버넌스, 옵저버빌리티, 가드레일, 평가, AI 레드팀 테스팅
- Air Canada 사례: 챗봇이 잘못된 정보를 제공해 고객이 법원에서 승소 → 기업이 책임
세션 6: Google ADK와 Cloud Run으로 분산 멀티에이전트 시스템 구축
발표자: Shir Mador (Google Cloud Developer Relations, Head of AI Engineering) + GDE(Google Developer Experts) William, Pedro, Karthik
구축 목표: 코스 생성 시스템
모든 참가자가 직접 구축하는 핸즈온 세션으로, 강좌 자동 생성 멀티에이전트 시스템을 만들었습니다.
시스템 아키텍처
1
2
3
4
5
6
7
8
9
[사용자 요청]
↓
[오케스트레이터 에이전트]
↓
[루프: 리서처 ↔ 판사(Judge)] ←── 최대 3회 반복
↓ (품질 기준 통과 시)
[콘텐츠 빌더 에이전트]
↓
[최종 강좌 출력]
각 에이전트 역할
| 에이전트 | 역할 | 도구 |
|---|---|---|
| Researcher | 강좌 주제 리서치 | Google Search |
| Judge | 리서치 품질 평가 (Pass/Fail + 피드백) | 없음 (LLM만) |
| Content Builder | 구조화된 강좌 초안 작성 | 없음 (LLM만) |
| Orchestrator | 전체 흐름 제어, 컨텍스트 관리 | A2A 프로토콜 |
핵심 기술: Google ADK 패턴
1
2
3
4
5
6
7
8
9
10
# 루프 에이전트: 리서처와 판사가 품질 기준까지 반복
research_loop = LoopAgent(
sub_agents=[researcher, judge, escalation_checker],
max_iterations=3
)
# 시퀀셜 에이전트: 루프 완료 후 콘텐츠 빌더 실행
root_agent = SequentialAgent(
sub_agents=[research_loop, content_builder]
)
A2A (Agent-to-Agent) 프로토콜
각 에이전트가 독립적인 Cloud Run 인스턴스에 배포되고 HTTP 요청으로 통신합니다:
- 각 에이전트는 Agent Card (이름, 설명, 스킬 목록)를 가짐
- 오케스트레이터가 각 에이전트의 URL을 알고 HTTP 요청으로 호출
- 리서치 결과는 세션 상태(Session State) 를 통해 공유
배포 전략: Cloud Run
1
2
3
4
5
6
7
8
9
10
# 각 에이전트를 독립적으로 배포
gcloud run deploy researcher --source ./agents/researcher
gcloud run deploy judge --source ./agents/judge
gcloud run deploy content-builder --source ./agents/content-builder
# URL 포착 후 오케스트레이터 배포
gcloud run deploy orchestrator \
--set-env-vars RESEARCHER_URL=$RESEARCHER_URL,...
분산 배포의 이점
- 독립적 확장: 리서처 에이전트에 요청이 몰리면 리서처만 스케일 아웃
- 독립적 업데이트: 콘텐츠 빌더 업데이트 시 전체 시스템 재배포 불필요
- 장애 격리: 하나의 에이전트 오류가 전체 시스템에 영향 미치지 않음
- 비용 최적화: 사용량에 따라 개별 에이전트 스케일 인/아웃
데모 결과
“개인 여성 근력 운동(Personal Strength Training for Women)”을 주제로 요청했을 때:
- 모듈 구조를 갖춘 완전한 강좌 생성
- 근력 운동의 효과, 기초 프로그램 설계, 영양, 부상 예방 등 섹션 포함
- 전체 소요 시간: 현지 실행 기준 수 분 이내
추가 개선 아이디어
- 리서처에 추가 데이터 소스 연결 (학술 DB, 전문 사이트 등)
- 판사 기준 강화 (더 상세한 품질 체크리스트, 휴먼 인 더 루프 추가)
- 콘텐츠 빌더에 이미지 생성 도구 추가
- 강좌 콘텐츠 기반 퀴즈 자동 생성 기능 추가
세션 7: Google DeepMind AI Studio + Gemini API 데모
발표자: Paige Bailey (Google DeepMind, Angel Lead)
최근 1개월 반 Google 모델 릴리즈 현황
| 모델 | 설명 |
|---|---|
| Gemini 3.1 Flash Live | 실시간 대화형 상호작용 |
| Gemini 3.1 Pro / Flash Lite | 대형/소형 멀티모달 모델 |
| Nano Banana 2 | 이미지 생성 + 이미지 편집 |
| Embeddings 2.0 Auto | 비디오/오디오/이미지/텍스트/코드 통합 임베딩 |
| LIA 3 | 가사 포함 음악 생성 |
| Genie 3 | 텍스트→ 인터랙티브 게임 월드 생성 |
| Gemma 4 | Apache 2.0 오픈소스, 다양한 크기 |
| VO 3.1 Lite | 저비용 비디오 생성 |
Gemini의 차별화 포인트: 비디오, 이미지, 오디오, 텍스트, 코드를 동시에 이해하고, 이미지+텍스트 인터리브, 오디오, 코드 등 여러 모달리티를 동시에 출력 가능. 대부분의 경쟁 모델은 텍스트/코드 출력만 지원.
주요 데모 내역
1. YouTube 동영상 분석 (Gemini 3.1 Flash Lite)
- 약 2시간 분량의 Alan Kay 컴퓨터 역사 강연 영상 분석
- 챕터 자동 분류 + Xerox PARC 언급 타임스탬프 추출
- 비용: 약 $0.33~0.34 (커피 한 잔보다 훨씬 저렴)
- 동일 방법으로 모든 로고, 모든 발화자, 모든 이벤트 타임스탬프 추출 가능
2. 오디오 전사 + 번역
- 영어와 독일어(에를쾨니히)를 번갈아 발화한 오디오 녹음
- 타임스탬프 포함 전사표 + 비영어 구간 번역 자동 생성
- 소요 토큰: 638 토큰 (극히 저렴)
3. LIA 음악 생성
- 프롬프트: “일렉트로닉 댄서블, 선형대수와 AGI의 시련을 주제로, 우르두어 가사”
- 실제 우르두어 가사와 음악이 생성되었으며, 참가자가 힌디/우르두어 화자로 확인
- 저작권 문제 없음: LIA는 퍼미시브 라이선스 데이터로 훈련됨
4. AI Studio Build: 책장 스캔 앱
한 문장 설명으로 완전한 웹 앱이 자동 생성됨:
- 기능: 책장 이미지를 업로드하면 책 제목, 저자, 설명을 Google Search로 보강하여 DB에 저장
- 인프라: Firebase 데이터베이스, Google OAuth 로그인
- 결과: 업로드된 책이 로그인 사용자별로 영구 저장되며, 재로그인 시에도 유지
5. Genie 3: 텍스트→ 게임 월드
- 프롬프트: “무지개빛 달 표면, 로봇 로버, 보라+분홍 공룡이 자전거를 타는 세계”
- 실시간으로 프레임 단위 생성, WASD+스페이스바로 조작
- 물리 엔진 없이 순수 모델 추론으로 동작
6. Gemini Live: 실시간 화면 이해
- 화면 공유 상태에서 Gemini와 음성으로 대화
- “화면에서 무엇이 보이나요?” → Genie 3 결과물 정확히 묘사
- “힌디어로 말하고, 오늘 런던 날씨도 알려줘” → Google Search 그라운딩으로 힌디어 날씨 정보 제공
- 비용: 오디오 전용 상호작용 기준 분당 약 $0.01
7. 컴퓨터 사용 (Antigravity)
- 프롬프트: “ai.google.dev에서 API 키 생성 방법을 스크린샷 포함 마크다운 가이드로 작성”
- Antigravity가 자동으로 브라우저를 열고, 화면을 캡처하며, 클릭하고, 마크다운 파일 생성
- 활용 예: 이메일 24시간치 확인 후 초안 작성, 웹사이트에서 표 데이터 스프레드시트 변환, 쇼핑 검색 등
AI Studio 접근 방법
- URL:
ai.dev또는ai.studio또는aistudio.google.com - Gmail 계정으로 무료 시작 가능
- 무료 티어: 일별 쿼터 갱신
- 유료: 클라우드 프로젝트에 신용카드 연결 (소비 기반 과금)
향후 일정: Day 3~5 워크숍
| 날짜 | 워크숍 주제 |
|---|---|
| Day 3 | Luis Serrano의 강화학습(Reinforcement Learning) 워크숍 |
| Day 3 | Docker Oleg의 “격리에서 신뢰로” 워크숍 (Docker Sandbox 심화) |
| Day 4 | Landing AI의 OCR 워크숍 |
| Day 4 | GRPO 기반 강화학습 워크숍 |
| Day 4 | Scott의 의도 기반 RAG 응용 워크숍 |
| Day 5 | Samanova의 의료 분야 에이전틱 AI 워크숍 |
핵심 인사이트 종합
에이전트 보안은 다층 구조가 필수다 - 금지 목록 하나로는 충분하지 않음. 샌드박스, 네트워크 정책, 크리덴셜 격리, 감사 로그가 모두 필요.
루프 설계가 모델 크기보다 중요할 수 있다 - 좋은 ReAct 루프를 갖춘 소형 오픈소스 모델이 대형 모델의 원샷 성능을 능가하는 경우가 있음.
에이전틱 AI의 컴퓨팅 요구는 패러다임 전환을 요구한다 - 24/7 토큰 소비라는 새로운 현실에서 레이턴시와 비용을 동시에 최적화하는 인프라가 필요.
AI 실패의 근본 원인은 기술이 아닌 조직에 있다 - 운영 모델 미변경, 거버넌스 부재, 전 조직 AI 리터러시 부족이 핵심 실패 원인.
전 직원 AI 교육은 선택이 아닌 필수다 - 개발자뿐 아니라 리더십, PM, 현장 직원까지 모두 AI를 이해해야 AI 전환이 성공한다.
분산 멀티에이전트 아키텍처가 확장성의 열쇠다 - 에이전트별 독립 배포와 독립 확장이 프로덕션 레디 시스템의 기본 조건.
멀티모달 AI의 시대가 왔다 - 텍스트 전용 모델에서 비디오·오디오·이미지·텍스트를 통합 처리하는 모델로 빠르게 전환 중이며, 활용 가능성이 급격히 확대되고 있음.
| *작성일: 2026-04-08 | 원본 영상: https://www.youtube.com/watch?v=wTuyMfp1glI* |