퀵스타트 가이드¶
Backend.AI GO를 설치하고 5분 안에 첫 로컬 AI 채팅을 시작해 보세요.
1단계: Backend.AI GO 설치하기¶
공식 웹사이트 또는 GitHub 릴리즈 페이지에서 자신의 플랫폼에 맞는 설치 프로그램을 다운로드하세요.
- macOS:
.dmg파일을 열고 Backend.AI GO 아이콘을 '응용 프로그램(Applications)' 폴더로 드래그하세요. - Windows:
.exe또는.msi설치 프로그램을 실행하고 안내에 따르세요. - Linux:
.deb패키지를 설치하거나.flatpak번들을 사용하세요.
더 자세한 내용은 설치 가이드를 참고하세요.
2단계: 첫 모델 다운로드하기¶
Backend.AI GO를 처음 실행하면 앱이 비어 있습니다. 시작하려면 모델을 다운로드해야 합니다.
- 사이드바에서 검색(Hugging Face 아이콘)을 클릭합니다.
Gemma3-4B,Qwen3-4B또는gpt-oss-20B와 같이 인기 있는 모델 이름을 입력합니다.- GGUF(가장 일반적) 또는 MLX(macOS 사용자용) 태그가 붙은 모델을 찾습니다.
- 원하는 모델 변체 옆의 다운로드 버튼을 클릭합니다. (보통
Q4_K_M이 속도와 품질의 균형이 가장 좋습니다.) - 다운로드 탭에서 다운로드가 완료될 때까지 기다립니다.
3단계: 모델 로드하기¶
다운로드가 완료되면 모델이 로컬 모델 라이브러리에 나타납니다.
- 모델(Models) 탭으로 이동합니다.
- 다운로드한 모델을 찾아 로드(Load) 버튼을 클릭합니다.
- 하단 상태 표시줄에 진행 상황이 표시됩니다. "Ready"라고 표시되면 모델이 메모리에 로드되어 활성화된 것입니다.
4단계: 채팅 시작하기!¶
- 사이드바에서 채팅(Chat) 아이콘을 클릭합니다.
- 하단 텍스트 박스에 메시지를 입력합니다 (예: "안녕! 양자역학을 아주 쉽게 설명해 줄 수 있어?").
- Enter 키를 누르고 로컬 AI의 답변을 확인해 보세요!
다음 단계¶
첫 채팅을 마쳤다면, 이제 더 고급 기능들을 살펴보세요:
- 에이전트 모드 사용하기: 복잡한 작업을 수행하는 방법.
- 클라우드 서비스 연결하기: 로컬 AI와 클라우드 AI를 함께 사용하기.
- 벤치마크 수행하기: 내 컴퓨터의 성능 확인하기.