콘텐츠로 이동

Backend.AI GO 문서에 오신 것을 환영합니다

Backend.AI GO는 Gemma 3, Qwen3, gpt-oss-120B, Qwen3-235b-a22b, Solar-Open-100B, Mistral과 같은 대규모 언어 모델(LLM)을 여러분의 로컬 PC에서 직접 실행할 수 있게 해주는 강력하고 사용자 친화적인 데스크톱 애플리케이션입니다.

로컬 AI 샌드박스를 찾는 개발자, 프라이버시를 중요하게 생각하는 전문가, 혹은 AI 열성팬 등 누구에게나 Backend.AI GO는 클라우드 서비스에 의존하지 않고도 최신 AI 모델을 다운로드하고 관리하며 상호작용할 수 있는 도구를 제공합니다.

주요 특징

  • 프라이버시 우선: 데이터가 여러분의 컴퓨터 안에 머뭅니다. 로컬 추론을 위해 클라우드에 데이터를 업로드할 필요가 없습니다.
  • 하드웨어 최적화: macOS(Metal/MLX), Windows/Linux(NVIDIA CUDA, AMD ROCm) 및 표준 CPU에서 높은 성능을 발휘합니다.
  • 에이전트 기능: 웹 검색, 파일 작업 등 도구를 사용하여 스스로 작업을 수행하는 에이전트 기능을 제공합니다.
  • 쉬운 관리: 앱 내에서 Hugging Face의 모델을 직접 검색하고 다운로드할 수 있습니다.
  • 표준 API 제공: OpenAI 호환 API를 제공하여, 여러분이 즐겨 사용하는 AI 도구들의 백엔드로 Backend.AI GO를 활용할 수 있습니다.

문서 활용 방법

Backend.AI GO가 처음이시라면, 시작하기 섹션부터 읽어보시는 것을 추천합니다.

  • 퀵스타트: 5분 안에 설치하고 첫 채팅을 시작해 보세요.
  • 에이전트 모드: 자율 에이전트를 사용하는 방법을 배워보세요.
  • CLI 레퍼런스: 터미널 사용을 선호하는 분들을 위한 가이드입니다.

Backend.AI 프로젝트의 일환으로 개발 및 유지관리되고 있습니다.