콘텐츠로 이동

Askimo 앱을 위한 LocalAI 설정

Askimo 앱을 자가 호스팅된 LocalAI 인스턴스에 연결하여 AI 인프라를 완전히 제어하세요.

  • 서버 URL: LocalAI 서버 엔드포인트
    • 기본값: http://localhost:8080
    • 원격 서버: http://your-server:8080
  • API 키: (선택) LocalAI 인스턴스가 인증을 요구하는 경우
  • Timeout: 연결 타임아웃 (기본: 120초)
  • 사용 가능 모델: LocalAI 배포에서 자동 감지
  1. 공식 가이드를 따라 LocalAI 설치
  2. LocalAI 서버 시작:
Terminal window
docker run -p 8080:8080 --name local-ai -ti localai/localai:latest
  1. LocalAI 인스턴스에 모델 배포
  2. Askimo에서 LocalAI 서버 URL 입력
  3. “Test Connection”을 눌러 확인
  1. 메뉴 바 클릭
  2. “Settings” 선택
  3. “AI Providers” 탭으로 이동
  4. 공급자 목록에서 “LocalAI” 선택

키보드 단축키: ⌘ + , (macOS) 또는 Ctrl + , (Windows/Linux) 후 “AI Providers”

Docker(권장):

Terminal window
docker run -p 8080:8080 \
-v $PWD/models:/models \
localai/localai:latest

Docker Compose:

version: '3.8'
services:
localai:
image: localai/localai:latest
ports:
- "8080:8080"
volumes:
- ./models:/models
environment:
- THREADS=4

엔터프라이즈 배포:

민감한 고객 데이터를 내부 AI 인프라에서 처리

컴플라이언스 요구사항:

모든 AI 처리가 통제된 환경 내에서 이루어지도록 보장

커스텀 모델:

도메인 특화 작업을 위한 사내 파인튜닝 모델 사용

모델 설치: LocalAI는 다양한 모델 형식을 지원합니다:

  • GGUF/GGML 모델
  • PyTorch 모델
  • ONNX 모델
  • 커스텀 백엔드

모델 갤러리: LocalAI 갤러리에서 모델 설치:

Terminal window
curl http://localhost:8080/models/apply \
-H "Content-Type: application/json" \
-d '{
"id": "model-gallery://llama-2-7b-chat"
}'

연결 불가?

  • LocalAI 서버가 실행 중인지 확인
  • 방화벽과 네트워크 설정 확인
  • 서버 URL과 포트가 올바른지 확인
  • curl http://localhost:8080/v1/models로 테스트

인증 문제?

  • LocalAI가 인증을 요구한다면, 설정에서 API 키 추가
  • LocalAI 로그에서 인증 오류 확인
  • API 키 형식이 LocalAI 구성과 일치하는지 검증

모델 로딩 실패?

  • LocalAI 로그 확인: docker logs local-ai
  • 모델 파일이 올바른 디렉터리에 있는지 확인
  • 충분한 메모리 확보
  • LocalAI 서비스를 재시작

성능 저하?

  • GPU 가속 활성화
  • 양자화 모델 사용
  • THREADS 환경변수 조정
  • 다중 인스턴스로 수평 확장 고려

인증: LocalAI에서 API 키 인증 구성:

Terminal window
docker run -p 8080:8080 \
-e API_KEY=your-secret-key \
localai/localai:latest

그 다음 Askimo 설정에 API 키 추가.

커스텀 백엔드: LocalAI는 특수 모델을 위한 커스텀 백엔드를 지원합니다:

name: custom-model
backend: custom-backend
parameters:
model: /path/to/model

리소스 제한: 리소스 사용 제어:

Terminal window
docker run -p 8080:8080 \
--memory="8g" \
--cpus="4" \
localai/localai:latest