콘텐츠로 이동

채팅 인터페이스

채팅 인터페이스는 AI 모델과 상호작용하는 핵심 공간입니다. 직관적이면서도 강력하게 설계되어 리치 텍스트 렌더링, 코드 하이라이팅, 그리고 추론 시각화 같은 고급 기능을 지원합니다.

개요 (Overview)

인터페이스는 크게 세 부분으로 구성됩니다:

  1. 메시지 히스토리: 대화 내용이 표시되는 중앙 영역입니다.

  2. 입력 영역: 메시지를 입력하는 하단 영역입니다.

  3. 제어 바: 현재 모델을 확인하고 파라미터 설정에 접근할 수 있는 상단 영역입니다.

리치 텍스트 및 코드

Backend.AI GO는 완벽한 마크다운(Markdown) 렌더링을 지원합니다.

  • 코드 블록: 프로그래밍 언어를 자동으로 감지하여 문법 강조(Syntax Highlighting)를 적용합니다. 클릭 한 번으로 코드를 복사할 수 있습니다.

  • 수식: 수학 공식을 위한 LaTeX 렌더링을 지원합니다 (예: \(E = mc^2\)).

  • : 데이터를 깔끔하고 읽기 쉬운 표 형태로 렌더링합니다.

고급 채팅 기능

메시지 편집 및 분기 (Forking)

과거의 모든 메시지(사용자 및 AI 모두)를 수정하여 대화의 방향을 바꿀 수 있습니다.

  1. 메시지 위에 마우스를 올리고 편집 (연필) 아이콘을 클릭합니다.

  2. 내용을 수정하고 저장 및 전송을 클릭합니다.

  3. 이렇게 하면 대화 트리에 분기(Fork)가 생성됩니다. 원본 메시지도 보존됩니다.

메시지를 편집하거나 답변을 재생성하면 해당 시점에 여러 버전의 대화가 생성됩니다.

  • 메시지 버블 아래에 있는 탐색 화살표(예: < 2 / 3 >)를 확인하세요.

  • 화살표를 클릭하여 대화 히스토리의 다른 분기 사이를 이동할 수 있습니다. 이를 통해 이전 내용을 잃지 않고 다양한 "만약에(what if)" 시나리오를 탐색할 수 있습니다.

답변 재생성 (Regenerate)

AI의 답변이 마음에 들지 않는다면, AI 메시지 아래의 재생성 (새로고침) 아이콘을 클릭하세요. 새로운 답변이 생성되며, 이 또한 새로운 분기로 저장됩니다.

사고 블록 (Thinking Blocks)

DeepSeek-R1이나 Qwen3-Thinking 같은 고성능 "추론 모델(Reasoning Models)"을 사용할 때, 모델은 최종 답변을 내놓기 전에 내부적인 사고 과정을 먼저 출력합니다.

  • 접기/펼치기: 기본적으로 사고 과정은 채팅 화면을 깔끔하게 유지하기 위해 접혀 있습니다.

  • 과정 확인: "Thinking" 헤더(뇌 아이콘)를 클릭하면 모델이 어떻게 결론에 도달했는지 읽어볼 수 있습니다. 논리적 오류를 찾거나 복잡한 유도 과정을 이해하는 데 매우 유용합니다.

  • 스트리밍: 모델이 생각하는 내용을 실시간으로 타이핑되는 것처럼 볼 수 있습니다.

추론 노력 제어 (Reasoning Effort Control)

채팅 입력 영역의 추론 노력(Reasoning Effort) 컨트롤을 사용하여 추론 모델이 얼마나 깊이 "사고"할지 제어할 수 있습니다.

  • 없음 (Off): 확장 사고를 비활성화합니다. 모델이 내부 추론 과정을 표시하지 않고 바로 응답합니다.

  • 낮음 / 중간 / 높음 / 매우 높음: 추론의 깊이를 점진적으로 증가시킵니다. 값이 높을수록 모델이 더 오래, 더 철저하게 사고하므로 복잡한 문제에 대한 답변 품질이 향상될 수 있습니다.

  • 기본 설정: 설정 > 추론 > 기본 추론 노력에서 기본 추론 노력 수준을 구성할 수 있습니다. "마지막 사용 값"을 선택하면 가장 최근에 사용한 설정을 자동으로 기억하고 적용합니다.

도구 사용 및 첨부 파일

도구 호출 시각화 (Tool Calling)

에이전트 모드를 사용할 때, AI는 도구(예: 웹 검색)를 사용할 수 있습니다.

  • 투명한 동작: 도구가 호출되면 어떤 도구가 어떤 입력값으로 호출되었는지 보여주는 특별한 블록이 나타납니다.

  • 결과 확인: 도구 실행이 완료되면 AI에게 전달된 결과값(예: 검색 결과나 파일 내용)을 확인할 수 있습니다.

파일 첨부

이미지 파일을 채팅 입력창에 드래그 앤 드롭하여 멀티모달 모델(Llama 3.2 Vision, GPT-4o 등)로 분석할 수 있습니다.