AI Agent를 프로덕션에 배포하려면 두 가지 축을 결정해야 합니다. 에이전트 프레임워크(개발)와 매니지드 런타임(배포·운영)입니다. 3대 CSP(AWS, Azure, GCP)는 각각 이 두 축에 대해 자체 솔루션을 제공하면서 동시에 오픈소스 프레임워크도 지원하는 전략을 취하고 있습니다.
이 글에서는 각 CSP의 에이전트 스택을 프레임워크 ↔ 런타임 두 축으로 분리하여 비교하고, 오픈소스 대안과 벤더 Lock-in 리스크를 체계적으로 정리합니다.
1. 전체 구조 한눈에 보기
| 축 | AWS | Azure | GCP |
|---|---|---|---|
| 자체 프레임워크 | Strands Agents SDK | Microsoft Agent Framework (Semantic Kernel + AutoGen) | Agent Development Kit (ADK) |
| 프레임워크 라이선스 | Apache 2.0 | MIT | Apache 2.0 |
| 매니지드 런타임 | Bedrock AgentCore | Azure AI Foundry Agent Service | Vertex AI Agent Engine |
| 런타임 특화 기능 | Runtime, Memory, Gateway, Identity, Browser, Code Interpreter, Observability, Evaluations, Policy | 세션/메모리 관리, Bing/Azure AI Search 통합, REST API/Function Apps 자동 호출, Copilot 통합 | 세션 관리, 메모리(단기/장기), VPC-SC, IAM, CMEK, 자동 스케일링 |
| 지원 외부 프레임워크 | LangGraph, CrewAI, LlamaIndex, Google ADK, OpenAI Agents SDK | OpenAI, Anthropic, AWS Bedrock, Ollama 등 | LangGraph, LangChain, CrewAI 등 |
핵심 관찰: 3사 모두 자체 프레임워크는 오픈소스로 공개하면서, 매니지드 런타임에서 수익을 창출하는 동일한 전략을 취하고 있습니다. 프레임워크 레벨에서는 Lock-in이 적지만, 런타임 레벨에서 종속성이 발생합니다.
2. AWS: Bedrock AgentCore + Strands Agents
2.1 Strands Agents SDK (오픈소스 프레임워크)
AWS가 내부적으로 Amazon Q Developer, AWS Glue, VPC Reachability Analyzer 등에서 사용하던 에이전트 프레임워크를 Apache 2.0으로 공개한 것입니다.
핵심 철학 — “모델 주도(Model-Driven)”
기존 프레임워크들이 개발자가 오케스트레이션 로직을 명시적으로 작성하도록 요구했다면, Strands는 최신 LLM의 추론 능력에 의존하여 몇 줄의 코드만으로 에이전트를 구성합니다.
from strands import Agent
agent = Agent(system_prompt="You are a helpful assistant.")
agent("서울의 오늘 날씨를 알려줘")
주요 특징:
- Python/TypeScript 듀얼 SDK
- MCP(Model Context Protocol) 네이티브 지원
- Swarm, Graph, A2A 세 가지 멀티에이전트 패턴
- OpenTelemetry 기반 관측성
- 20+ 내장 도구 (Retrieve, Thinking, Shell, HTTP 등)
2.2 Amazon Bedrock AgentCore (매니지드 런타임)
2025년 12월 GA된 AgentCore는 모듈러 아키텍처가 특징입니다. 9개 서비스를 독립적으로 또는 조합하여 사용할 수 있습니다.
| 서비스 | 설명 |
|---|---|
| Runtime | 서버리스 배포, 세션별 microVM 격리, 최대 8시간 비동기 처리, 100MB 멀티모달 페이로드 |
| Memory | 단기 메모리(멀티턴) + 장기 메모리(세션 간 영속), 에이전트 간 메모리 공유 |
| Gateway | API/Lambda/MCP 서버를 MCP 호환 도구로 변환, Salesforce·Zoom·Jira·Slack 통합 |
| Identity | Okta, Microsoft Entra ID, Cognito, Auth0 등 기존 IdP 연동 |
| Code Interpreter | Python, JavaScript, TypeScript 샌드박스 실행 환경 |
| Browser | 클라우드 기반 브라우저 자동화 (Playwright, BrowserUse 호환) |
| Observability | OpenTelemetry 호환 트레이싱, 디버깅, 모니터링 |
| Evaluations | 에이전트/도구 품질 자동 평가, CloudWatch 통합 |
| Policy | Cedar 정책 언어로 도구 호출 전 세밀한 접근 제어 |
차별점:
- 프레임워크 무관: LangGraph, CrewAI, LlamaIndex, Google ADK, OpenAI Agents SDK, Strands 모두 지원
- 모델 무관: OpenAI, Gemini, Claude, Nova, Llama, Mistral 등 자유롭게 선택
- 과금: 실제 리소스 소비 기반, I/O 대기 시간은 무료
- 세션 격리: 각 세션이 전용 microVM에서 실행되어 CPU/메모리/파일시스템 완전 격리
2.3 Lock-in 분석
| 항목 | Lock-in 수준 | 설명 |
|---|---|---|
| Strands Agents SDK | ❌ 낮음 | Apache 2.0, 어디서든 실행 가능 |
| Bedrock AgentCore Runtime | ⚠️ 중간~높음 | AWS 전용 서비스, microVM 세션 모델은 타 CSP에 없음 |
| AgentCore Memory | ⚠️ 중간 | API는 표준적이나 구현은 AWS 종속 |
| AgentCore Gateway | ⚠️ 중간 | MCP 표준 기반이므로 도구 정의 자체는 이식 가능 |
| AgentCore Identity | 🔴 높음 | AWS IAM/Cognito 깊은 통합 |
탈출 전략: Strands SDK + Docker/K8s 자체 배포. Strands는 4가지 배포 아키텍처(로컬, API 모놀리스, 에이전트/도구 분리, Return-of-Control)를 공식 지원합니다.
3. Azure: AI Foundry Agent Service + Microsoft Agent Framework
3.1 Microsoft Agent Framework (오픈소스 프레임워크)
Semantic Kernel과 AutoGen을 통합한 차세대 프레임워크로, 2026년 RC(Release Candidate)에 도달했습니다.
핵심 특징:
- .NET과 Python 지원
- 그래프 기반 워크플로 (순차, 동시, 핸드오프, 그룹 채팅)
- MCP, A2A, OpenAPI 등 오픈 표준 지원
- 스트리밍, 체크포인팅, Human-in-the-Loop
- MIT 라이선스
에이전트 타입이 풍부합니다:
| 에이전트 타입 | 설명 |
|---|---|
| ChatCompletionAgent | 범용 대화형 에이전트 |
| OpenAIAssistantAgent | OpenAI Assistants API 기반 |
| AzureAIAgent | Azure AI Foundry 통합 에이전트 |
| OpenAIResponsesAgent | OpenAI Responses API 기반 |
| CopilotStudioAgent | Microsoft Copilot Studio 연동 |
다중 모델 공급자 지원: Azure OpenAI, OpenAI, GitHub Copilot, Anthropic Claude, AWS Bedrock, Ollama 등과 호환됩니다. 이 점에서 Semantic Kernel은 특정 CSP에 종속되지 않는 유연성을 가집니다.
3.2 Azure AI Foundry Agent Service (매니지드 런타임)
10,000개 이상의 고객사가 GA 이후 사용 중인 매니지드 서비스입니다.
메모리 관리가 세분화되어 있습니다:
- 단기 메모리: 현재 세션 대화를 추적
- 장기 메모리: 세션 간 지속되는 영속 메모리, 3단계 프로세스(추출 → 통합 → 검색)로 운영
- MemorySearchTool: 네임스페이스로 메모리 격리, 검색 옵션 커스터마이징 가능
도구 통합:
- Bing Search, Azure AI Search (지식 검색)
- REST API 자동 호출 (Swagger/OpenAPI 3.0 정의 기반)
- Azure Function Apps 연동
- Azure Logic Apps 통합
- RAG (TextSearchProvider)
Microsoft 생태계 통합이 최대 강점입니다:
- Microsoft 365, Teams 원클릭 배포
- Entra ID 기반 거버넌스 및 SSO
- Copilot Studio 연동
- Application Insights 기반 모니터링
- Azure DevOps CI/CD 통합
3.3 Lock-in 분석
| 항목 | Lock-in 수준 | 설명 |
|---|---|---|
| Semantic Kernel / Agent Framework | ❌ 낮음 | MIT 라이선스, 멀티 모델·멀티 클라우드 지원 |
| Azure AI Foundry Agent Service | 🔴 높음 | Azure 전용, Entra ID·M365·Copilot 깊은 통합 |
| 메모리 서비스 (장기) | 🔴 높음 | Azure 매니지드 서비스, 이식 불가 |
| 도구 통합 (Bing, Azure Functions) | ⚠️ 중간~높음 | Azure 서비스 종속, 단 OpenAPI 기반이므로 스펙은 이식 가능 |
| 모델 접근 | ⚠️ 중간 | Azure OpenAI가 중심, 타 모델은 제한적 |
탈출 전략: Semantic Kernel은 OpenAI, Anthropic, Bedrock 등 다양한 모델 백엔드를 지원하므로, 프레임워크 레벨에서는 전환이 용이합니다. 런타임은 Docker/K8s + FastAPI로 직접 구축하되, 메모리 관리와 도구 통합을 재구현해야 합니다.
4. GCP: Vertex AI Agent Engine + ADK
4.1 Agent Development Kit — ADK (오픈소스 프레임워크)
Google이 자체 AI 에이전트 구축에 사용하는 프레임워크를 Apache 2.0으로 공개한 것입니다.
핵심 특징:
- SequentialAgent, ParallelAgent, LoopAgent 등 명시적 워크플로 패턴
- 세션 기반 상태 관리 (
session.state) - 사용자/앱/세션/임시 4단계 스코프의 상태 관리
- MCP 도구 통합
- A2A 프로토콜 지원
ADK v1.2.0+ 부터 CLI 단일 명령 배포 지원:
# Agent Engine 배포
adk deploy agent_engine \
--project <project-id> \
--region us-central1 \
--staging_bucket <bucket-name>
# Cloud Run 배포 (Agent Engine 없이)
adk deploy cloud_run \
--project <project-id> \
--region us-central1
4.2 Vertex AI Agent Engine (매니지드 런타임)
GCP의 완전 관리형 에이전트 배포 서비스입니다.
주요 기능:
- 자동 스케일링
- 세션 관리 (대화 컨텍스트 유지)
- 메모리 서비스:
InMemoryMemoryService(프로토타이핑) /VertexAiMemoryBankService(영속) - VPC-SC (서비스 경계) 보안
- IAM 기반 접근 제어
- CMEK (고객 관리 암호화 키)
- ADK API 서버 및 웹 UI 제공
Agent Starter Pack(ASP): Terraform/CI/CD 템플릿을 제공하여 새 GCP 프로젝트에서 빠르게 시작할 수 있습니다.
4.3 Lock-in 분석
| 항목 | Lock-in 수준 | 설명 |
|---|---|---|
| ADK | ❌ 낮음 | Apache 2.0, Cloud Run/GKE/Docker 어디든 배포 가능 |
| Agent Engine | 🔴 높음 | GCP 전용, Vertex AI 종속 |
| MemoryBankService | 🔴 높음 | Agent Engine 의존, 자체 구현 시 InMemory만 기본 제공 |
| VPC-SC / IAM / CMEK | 🔴 높음 | GCP 보안 서비스 고유 |
| Gemini 모델 통합 | ⚠️ 중간 | ADK는 다른 모델도 지원하나 Gemini 최적화 |
탈출 전략: adk deploy cloud_run으로 Agent Engine 없이 Cloud Run에 직접 배포. 세션 관리는 Firestore, 메모리는 Cloud SQL + Redis로 직접 구현합니다. GCP 완전 이탈 시 Docker/K8s로 어디든 배포 가능합니다.
5. CSP 매니지드 런타임 기능 상세 비교
5.1 세션 및 메모리
| 기능 | Bedrock AgentCore | Azure AI Foundry | Agent Engine |
|---|---|---|---|
| 세션 격리 | microVM 격리 (CPU/메모리/FS) | 세션 기반 관리 | 세션 ID 기반 관리 |
| 단기 메모리 | ✅ 멀티턴 대화 | ✅ 세션 내 컨텍스트 | ✅ 세션 상태 |
| 장기 메모리 | ✅ 세션 간 영속, 에이전트 간 공유 | ✅ 3단계(추출/통합/검색) | ✅ MemoryBankService |
| 체크포인팅 | ✅ 비동기 태스크 관리 | ✅ 체크포인팅 | 제한적 |
5.2 보안 및 거버넌스
| 기능 | Bedrock AgentCore | Azure AI Foundry | Agent Engine |
|---|---|---|---|
| 네트워크 격리 | VPC 배포 | VNet/Private Endpoints | VPC-SC |
| 암호화 | KMS (at-rest), TLS (in-transit) | CMK 지원 | CMEK |
| ID 관리 | Cognito, Okta, Entra ID, Auth0 | Entra ID (Azure AD) | IAM |
| 접근 제어 정책 | Cedar 정책 언어 | RBAC | IAM 역할 |
| 컴플라이언스 | SOC 2, HIPAA, GDPR, ISO 27001 | SOC 2, HIPAA, GDPR, ISO 27001, FedRAMP | SOC 2, HIPAA, GDPR, ISO 27001 |
5.3 도구 통합 및 확장
| 기능 | Bedrock AgentCore | Azure AI Foundry | Agent Engine |
|---|---|---|---|
| MCP 지원 | ✅ Gateway 서비스 | ✅ (Agent Framework) | ✅ (ADK) |
| A2A 지원 | ✅ (Strands) | ✅ (Agent Framework) | ✅ (ADK) |
| 코드 실행 | ✅ Code Interpreter | ✅ | 제한적 |
| 브라우저 자동화 | ✅ Browser 서비스 | ✅ (Playwright) | ❌ |
| 외부 서비스 통합 | Salesforce, Zoom, Jira, Slack | Bing, Azure AI Search, Logic Apps | Google Search, Cloud Functions |
5.4 관측성 및 평가
| 기능 | Bedrock AgentCore | Azure AI Foundry | Agent Engine |
|---|---|---|---|
| 트레이싱 | OpenTelemetry 호환 | Application Insights | Cloud Trace |
| 평가 서비스 | ✅ Evaluations (자동 품질 평가) | ✅ (groundedness, relevance, coherence) | 제한적 |
| 실험 관리 | CloudWatch | Azure Experiments | Vertex AI Experiments |
6. 오픈소스 대안: 런타임 레이어
프레임워크 레벨에서는 ADK(Apache 2.0), Strands(Apache 2.0), Semantic Kernel(MIT) 모두 오픈소스이므로 Lock-in이 없습니다. 진짜 문제는 매니지드 런타임을 오픈소스로 어떻게 대체하느냐입니다.
6.1 LangGraph (MIT) — 프레임워크 + 체크포인팅 + 메모리
LangGraph 프레임워크 자체가 MIT 라이선스로 체크포인팅과 메모리를 내장하고 있습니다.
from langgraph.graph import StateGraph
from langgraph.checkpoint.postgres import PostgresSaver
checkpointer = PostgresSaver.from_conn_string("postgresql://...")
graph = StateGraph(State)
graph.add_node("agent", agent_node)
# ... 그래프 정의
app = graph.compile(checkpointer=checkpointer)
제공 기능:
- Durable execution (장애 자동 복구)
- PostgreSQL 기반 체크포인팅 (
langgraph-checkpoint-postgres, MIT) - 단기/장기 메모리
- Human-in-the-Loop
- 스트리밍
직접 구축해야 하는 것: API 서버(FastAPI), 세션 라우팅, 인증/인가, 스케일링, 모니터링
⚠️ 주의: LangGraph Platform(구 LangSmith Deployments)은 Elastic License 2.0으로, OSI 승인 오픈소스가 아닙니다. 셀프호스팅에는 라이선스 키가 필요하고, Enterprise 계약이 요구됩니다.
6.2 Aegra (Apache 2.0) — LangGraph Platform 드롭인 대체
LangGraph SDK와 API를 그대로 사용하면서 자체 인프라에서 PostgreSQL 영속성과 함께 운영할 수 있는 Apache 2.0 프로젝트입니다.
제공 기능:
- LangGraph SDK 호환 (기존 코드 수정 없이 사용)
- Agent Protocol 스펙 구현
- 체크포인트 포함 내구성 있는 대화 저장
- JWT/OAuth/Firebase 인증
- Docker Compose 5분 배포
- OpenTelemetry 관측성
성숙도: v0.8.x 초기 단계로 대규모 프로덕션 검증 사례가 부족합니다. PoC/평가 용도로 적합합니다.
6.3 Dify (수정 Apache 2.0) — 노코드/로우코드 플랫폼
⚠️ “Apache 2.0”으로 소개되지만 추가 제한 조건이 있습니다:
- 멀티테넌트 서비스 운영 시 별도 상업 라이선스 필요
- 프론트엔드 로고/저작권 정보 제거 불가
제공 기능: 시각적 워크플로 빌더, 빌트인 RAG, 지식 베이스, 100+ LLM 지원, 셀프호스팅
고객사에 멀티테넌트 SaaS로 제공하지 않는다면 사용 가능하지만, 금융권 등 라이선스 심사가 엄격한 환경에서는 주의가 필요합니다.
6.4 Mem0 (Apache 2.0) — 메모리 전용 레이어
에이전트 프레임워크가 아닌 메모리 계층 전용 오픈소스입니다.
- Apache 2.0 라이선스
- 온프레미스/프라이빗 클라우드/K8s 배포
- ADK, LangGraph, Strands 등과 조합하여 장기 메모리 레이어로 활용
- 50,000+ 개발자 사용 중
6.5 오픈소스 조합 전략 비교
| 조합 | 세션관리 | 체크포인팅 | 메모리 | API 서빙 | 라이선스 | 성숙도 |
|---|---|---|---|---|---|---|
| LangGraph + FastAPI + PostgreSQL | 직접 구현 | ✅ 빌트인 | ✅ 빌트인 | 직접 구현 | MIT | 높음 |
| Aegra | ✅ | ✅ | ✅ | ✅ | Apache 2.0 | 초기 |
| ADK + Cloud Run + Firestore | 직접 구현 | 직접 구현 | 직접 구현 | Cloud Run | Apache 2.0 | 중간 |
| Strands + Lambda/EKS | 직접 구현 | 직접 구현 | 직접 구현 | Lambda/EKS | Apache 2.0 | 중간 |
| LangGraph Platform (셀프호스팅) | ✅ | ✅ | ✅ | ✅ | Elastic 2.0 ⚠️ | 매우 높음 |
| Dify 셀프호스팅 | ✅ | ✅ | ✅ | ✅ | 수정 Apache 2.0 ⚠️ | 높음 |
7. Lock-in 리스크 종합 매트릭스
7.1 프레임워크 레벨
| 프레임워크 | 라이선스 | 멀티 모델 | 멀티 클라우드 배포 | Lock-in |
|---|---|---|---|---|
| ADK | Apache 2.0 | ✅ (Gemini 최적화) | ✅ Docker/K8s | 낮음 |
| Strands Agents | Apache 2.0 | ✅ (Bedrock, Anthropic, Ollama 등) | ✅ Docker/K8s | 낮음 |
| Semantic Kernel / Agent Framework | MIT | ✅ (OpenAI, Claude, Bedrock, Ollama 등) | ✅ Docker/K8s | 낮음 |
| LangGraph | MIT | ✅ | ✅ Docker/K8s | 낮음 |
| CrewAI | MIT | ✅ | ✅ Docker/K8s | 낮음 |
결론: 프레임워크 레벨에서는 3대 CSP 모두 오픈소스이며, Lock-in 리스크가 낮습니다.
7.2 매니지드 런타임 레벨
| 런타임 | 프레임워크 제한 | 모델 제한 | 데이터 이식성 | 대체 난이도 | Lock-in |
|---|---|---|---|---|---|
| Bedrock AgentCore | 없음 (프레임워크 무관) | 없음 (모델 무관) | 중간 (Memory API) | 높음 | 중간~높음 |
| Azure AI Foundry | 없음 (Agent Framework 중심이나 타 지원) | OpenAI 중심 | 낮음 (M365 통합) | 높음 | 높음 |
| Agent Engine | ADK 중심 (타 지원) | Gemini 중심 | 중간 | 중간 (Cloud Run 대안) | 중간~높음 |
7.3 Lock-in 유형별 분석
1. 모델 Lock-in
- AWS: 가장 적음. 7개 이상의 모델 공급자 지원
- Azure: 가장 높음. Azure OpenAI가 중심이며 Claude 미지원
- GCP: 중간. Gemini 최적화이나 Model Garden을 통해 Claude, Llama 등 접근 가능
2. 인프라 Lock-in
- AWS: AgentCore의 microVM 세션 격리 모델은 AWS 고유
- Azure: Entra ID, M365, Copilot Studio 통합은 Azure 고유
- GCP: VPC-SC, CMEK는 GCP 고유이나, Cloud Run 배포로 런타임 Lock-in 회피 가능
3. 데이터/메모리 Lock-in
- 3사 모두: 매니지드 메모리 서비스의 데이터를 다른 플랫폼으로 이식하기 어려움
- 완화 전략: PostgreSQL/Redis 같은 표준 저장소에 메모리를 직접 저장하면 이식성 확보
4. 생태계 Lock-in
- AWS: AWS Lambda, Step Functions, CloudWatch 등과 깊은 통합
- Azure: M365, Teams, Dynamics, Power Platform과의 통합이 강력하지만 탈출 비용도 높음
- GCP: BigQuery, Firestore, Cloud Functions과의 통합
8. 실무 의사결정 프레임워크
8.1 어떤 CSP 런타임을 선택할 것인가
기존 클라우드가 있는가?
├── AWS 사용 중 → Bedrock AgentCore (프레임워크 무관 강점)
├── Azure 사용 중 → AI Foundry Agent Service (M365 통합 강점)
├── GCP 사용 중 → Agent Engine 또는 ADK + Cloud Run
└── 멀티 클라우드 / 없음
├── 모델 선택 자유도 우선 → AWS (가장 넓은 모델 선택지)
├── 엔터프라이즈 통합 우선 → Azure (M365/Copilot 생태계)
└── 비용 우선 → GCP (Gemini 기준 가장 저렴)
8.2 오픈소스만으로 구축하고 싶다면
라이선스 리스크 제로가 필요한가?
├── Yes → LangGraph(MIT) + FastAPI + PostgreSQL
│ 또는 ADK(Apache 2.0) + Docker/K8s
├── 초기이지만 올인원이 필요 → Aegra(Apache 2.0) 평가
└── No (약간의 제한 허용)
├── 노코드 필요 → Dify (수정 Apache 2.0)
└── 프로덕션 검증 최우선 → LangGraph Platform (Elastic 2.0)
8.3 하이브리드 전략
가장 현실적인 접근은 프레임워크는 오픈소스, 런타임은 CSP입니다.
| 전략 | 프레임워크 | 런타임 | Lock-in | 비고 |
|---|---|---|---|---|
| GCP 최적 | ADK (Apache 2.0) | Cloud Run (Agent Engine 미사용) | 낮음 | 세션/메모리 직접 구현 필요 |
| AWS 최적 | Strands (Apache 2.0) | AgentCore Runtime만 사용 | 중간 | 모듈 선택적 사용으로 종속 최소화 |
| Azure 최적 | Semantic Kernel (MIT) | Azure AI Foundry | 중간~높음 | M365 생태계 활용 시 가치 극대화 |
| 멀티 클라우드 | LangGraph (MIT) | Docker/K8s + PostgreSQL | 최소 | 운영 부담 높지만 이식성 최대 |
9. 금융·규제 산업을 위한 추가 고려사항
금융, 의료, 공공 등 규제 산업에서는 추가적인 Lock-in 고려가 필요합니다.
데이터 주권
- AWS: 리전 선택 가능, Data residency 보장
- Azure: 리전 선택 + Data residency + Sovereign Cloud
- GCP: 리전 선택 + VPC-SC + Data Residency 제어
라이선스 감사 대비
완전한 오픈소스만 사용하고 싶다면:
✅ ADK (Apache 2.0)
✅ Strands (Apache 2.0)
✅ Semantic Kernel (MIT)
✅ LangGraph (MIT)
✅ CrewAI (MIT)
✅ Mem0 (Apache 2.0)
✅ PostgreSQL (PostgreSQL License)
✅ Redis (BSD)
✅ FastAPI (MIT)
⚠️ 주의가 필요한 것:
⚠️ LangGraph Platform — Elastic License 2.0 (OSI 미승인)
⚠️ Dify — 수정 Apache 2.0 (멀티테넌트 제한)
⚠️ 각 CSP 매니지드 서비스 — 상용 서비스 약관
탈출 비용 추정
| 전환 시나리오 | 프레임워크 전환 비용 | 런타임 전환 비용 | 데이터 마이그레이션 |
|---|---|---|---|
| GCP → AWS | 중간 (ADK → Strands 코드 전환) | 높음 (Agent Engine → AgentCore) | 높음 |
| AWS → GCP | 중간 (Strands → ADK 코드 전환) | 높음 (AgentCore → Agent Engine) | 높음 |
| CSP → 셀프호스팅 | 낮음 (오픈소스 프레임워크 유지) | 매우 높음 (전체 인프라 구축) | 중간 |
| LangGraph(MIT) 기반 | 없음 | 낮음 (Docker/K8s 이식) | 낮음 (PostgreSQL) |
10. 정리
3대 CSP의 공통 전략
- 프레임워크는 오픈소스로 공개하여 개발자 생태계를 확보
- 매니지드 런타임에서 차별화하여 수익 창출
- 타사 프레임워크도 지원하여 런타임 Lock-in 유도
실무 권장
- 프레임워크 선택은 자유롭게: 3사 모두 오픈소스이므로 기술적 적합성으로 선택
- 런타임은 현재 CSP에 맞춰: 기존 클라우드 인프라와의 통합 비용이 전환 비용보다 낮음
- 탈출 전략은 미리 준비: 표준 프로토콜(MCP, A2A, OpenAPI) 활용, 메모리는 PostgreSQL 등 이식 가능한 저장소 사용
- 완전한 오픈소스 구축은 가능하지만 대가가 있음: 세션 관리, 보안, 스케일링, 모니터링을 직접 구현해야 하는 운영 부담
Agent Engine이 제공하는 수준의 “완전 매니지드 + 완전 오픈소스” 조합은 아직 시장에 존재하지 않습니다. 어딘가에서는 직접 구현하거나, 라이선스 제약을 받아들이거나, 또는 클라우드 비용을 지불해야 합니다. 이것이 현재 에이전트 인프라 생태계의 현실입니다.