클라우드 AI 통합¶
Backend.AI GO를 사용하면 로컬 모델과 강력한 클라우드 기반 API를 매끄럽게 함께 사용할 수 있습니다.
클라우드 API를 연동하는 이유¶
-
하이브리드 워크플로우: 민감한 데이터는 로컬 Llama 3로 처리하고, 복잡한 추론 작업은 GPT-5.2나 Claude 4.5 Sonnet으로 전환하여 처리할 수 있습니다.
-
통합 인터페이스: 로컬 모델이든 클라우드 모델이든 모든 모델과 한곳에서 대화할 수 있습니다. 탭이나 앱을 전환할 필요가 없습니다.
-
도구 활용: 클라우드 모델에서도 Backend.AI GO의 에이전트 시스템과 도구들을 로컬 모델처럼 그대로 사용할 수 있습니다.
지원되는 서비스¶
Backend.AI GO는 다양한 공급자를 지원합니다:
-
OpenAI: GPT-5.2, GPT-5.1, GPT-4o (레거시).
-
Anthropic: Claude 4.5 Sonnet, Claude 4.5 Opus, Claude 4.5 Haiku.
-
Google Gemini: Gemini 1.5 Pro, Gemini 1.5 Flash.
-
OpenAI 호환 서비스: OpenAI API 방언을 사용하는 모든 서비스(Ollama, LocalAI, DeepSeek, Groq 등)에 연결할 수 있습니다.
-
원격 vLLM: 나만의 고성능 추론 서버에 연결할 수 있습니다.
보안¶
API 키는 운영체제의 네이티브 자격 증명 관리자(macOS Keychain, Windows 자격 증명 관리자)에 안전하게 저장됩니다. Backend.AI GO는 공급자의 API와 직접 통신하며, 사용자의 키나 데이터는 Lablup 서버로 전송되지 않습니다.