콘텐츠로 이동

퀵스타트 가이드

Backend.AI GO를 설치하고 5분 안에 첫 로컬 AI 채팅을 시작해 보세요.

1단계: Backend.AI GO 설치하기

공식 웹사이트 또는 GitHub 릴리즈 페이지에서 자신의 플랫폼에 맞는 설치 프로그램을 다운로드하세요.

  • macOS: .dmg 파일을 열고 Backend.AI GO 아이콘을 '응용 프로그램(Applications)' 폴더로 드래그하세요.
  • Windows: .exe 또는 .msi 설치 프로그램을 실행하고 안내에 따르세요.
  • Linux: .deb 패키지를 설치하거나 .flatpak 번들을 사용하세요.

더 자세한 내용은 설치 가이드를 참고하세요.

2단계: 첫 모델 다운로드하기

Backend.AI GO를 처음 실행하면 앱이 비어 있습니다. 시작하려면 모델을 다운로드해야 합니다.

  1. 사이드바에서 검색(Hugging Face 아이콘)을 클릭합니다.
  2. Gemma3-4B, Qwen3-4B 또는 gpt-oss-20B와 같이 인기 있는 모델 이름을 입력합니다.
  3. GGUF(가장 일반적) 또는 MLX(macOS 사용자용) 태그가 붙은 모델을 찾습니다.
  4. 원하는 모델 변체 옆의 다운로드 버튼을 클릭합니다. (보통 Q4_K_M이 속도와 품질의 균형이 가장 좋습니다.)
  5. 다운로드 탭에서 다운로드가 완료될 때까지 기다립니다.

3단계: 모델 로드하기

다운로드가 완료되면 모델이 로컬 모델 라이브러리에 나타납니다.

  1. 모델(Models) 탭으로 이동합니다.
  2. 다운로드한 모델을 찾아 로드(Load) 버튼을 클릭합니다.
  3. 하단 상태 표시줄에 진행 상황이 표시됩니다. "Ready"라고 표시되면 모델이 메모리에 로드되어 활성화된 것입니다.

4단계: 채팅 시작하기!

  1. 사이드바에서 채팅(Chat) 아이콘을 클릭합니다.
  2. 하단 텍스트 박스에 메시지를 입력합니다 (예: "안녕! 양자역학을 아주 쉽게 설명해 줄 수 있어?").
  3. Enter 키를 누르고 로컬 AI의 답변을 확인해 보세요!

다음 단계

첫 채팅을 마쳤다면, 이제 더 고급 기능들을 살펴보세요: