Guides

Ollama와 RAG로 문서와 채팅: PDF, Word, 연구 논문을 위한 무료 로컬 AI

Askimo RAG with Ollama - Chat with your documents using local AI models

문서, 연구 논문, 프로젝트 파일을 클라우드에 업로드하지 않고 AI에게 질문하고 싶은 적 있으신가요? Askimo의 Ollama 기반 RAG(검색 증강 생성)가 그것을 가능하게 합니다. Llama, Mistral, Phi 같은 로컬 AI 모델이 PDF, Word 문서, 메모, 텍스트 파일에 답해줍니다. 모두 기기에서 완전히 실행됩니다.

요약: Ollama 설치 후 llama3 또는 mistral 모델을 pull하고 Askimo를 다운로드하세요. 문서 폴더를 가리키는 프로젝트를 만들면 질문을 시작할 수 있습니다. 설정 후 인터넷은 필요 없습니다.

Ollama가 처음이라면 Askimo가 최고의 Ollama 데스크톱 앱인 이유를 확인하세요.


문서에 Ollama와 RAG를 사용하는 이유

문제: AI는 내 파일을 모른다

ChatGPT 같은 AI는 인터넷 공개 데이터로 학습되어 일반 지식은 잘 답합니다. 하지만 실제 업무에 적용하면 벽에 부딪힙니다.

한계:

  • 연구 논문: 논문이 20~100개 이상이라 종합 분석이 필요합니다
  • 회사 정책: 수십 개의 정책 문서, 매뉴얼, 가이드가 있습니다
  • 프로젝트 문서: 회의록, 요구사항, 기술 사양이 파일에 분산되어 있습니다
  • 개인 지식: 수년간의 메모와 연구를 참조하고 싶습니다

일반 AI는 내 파일이 아닌 학습 데이터로 답하고, 없는 정보를 만들어내기도 하며, 여러 파일에 걸친 질문에 답하지 못합니다. 민감한 문서를 클라우드에 올려야 하는 프라이버시 문제도 있습니다.

해결책: RAG가 로컬 AI를 문서 인식형으로 만든다

RAG를 사용하면 Ollama 모델이 실제로 내 파일을 아는 개인 리서치 어시스턴트가 됩니다:

  • 근거 있는 답변: 일반 정보가 아닌 실제 문서 참조
  • 파일 기억: AI가 모든 문서와 내용을 “기억”
  • 즉각적 컨텍스트: 질문 시 관련 정보를 자동 검색
  • 완전한 프라이버시: 모두 로컬 실행 - 파일이 기기를 벗어나지 않음

자세히 알아보기: 2026년 최고의 Ollama 클라이언트 가이드를 참고하세요.


Ollama에서 RAG 작동 방식

프로젝트를 만들고 RAG를 활성화하면:

  1. 인덱싱: 파일을 읽어 청크로 분할하고 고속 검색을 위해 정리
  2. 저장: 인덱스가 기기에 저장 (파일 크기의 약 10-30%)
  3. 검색: 질문하면 관련 정보를 자동으로 찾음
  4. 주입: 스니펫이 AI에게 답변 전에 제공됨
  5. 생성: Ollama 모델이 컨텍스트를 사용해 정확한 답변 생성

모든 과정이 로컬에서 진행됩니다. 외부 API 호출 없음.


실제 활용 사례

연구: 여러 논문 종합

You: "What are the main findings across all my climate research papers?"
Llama 3: Based on your papers, three key findings emerge:
1. Temperature increases correlate with CO2 levels (mentioned in 12 papers)
2. Ocean acidification is accelerating faster than predicted (7 papers)
3. Renewable energy adoption is cost-effective (15 papers with economic data)
Sources: climate-change-2023.pdf, renewable-study.docx, ocean-research.pdf [and 9 more]

가능한 질문 예시:

  • “재생에너지 연구에서 사용된 방법론을 비교해줘”
  • “태양광 패널 효율에 관한 상충되는 결론을 찾아줘”

집필: 장편 프로젝트 관리

You: "Has Elena ever mentioned being afraid of water in any chapter?"
Mistral: Yes, in chapter 7 Elena mentions she nearly drowned as a child. She also
avoids the harbor scene in chapter 12 saying "I don't do boats." Your character
notes list this as a key personality trait stemming from her childhood incident.
Sources: chapter-07.docx, chapter-12.docx, character-profiles.md

업무: 회사 지식에 빠르게 접근

You: "What's our policy on remote work expenses?"
Llama 3: According to the HR Policy Handbook (updated Jan 2026), employees can
expense up to $500/month for home office equipment and $150/month for internet.
Receipts must be submitted within 30 days. See section 4.2 for full details.
Source: HR-Policies-2026.pdf (page 23)

Ollama로 RAG 설정하기

1단계: Ollama 설치

macOS:

Terminal window
brew install ollama

Linux:

Terminal window
curl -fsSL https://ollama.com/install.sh | sh

Windows: https://ollama.com/download/windows 에서 설치 프로그램 다운로드

설치 테스트:

Terminal window
ollama run llama3

2단계: 임베딩 모델 pull

Terminal window
ollama pull nomic-embed-text

3단계: 채팅 모델 pull

Terminal window
# RAM 8GB 이상 - 빠르고 강력
ollama pull llama3
# RAM 16GB 이상 - 복잡한 질문에 탁월
ollama pull mistral
# RAM 4-8GB - 가벼운 모델
ollama pull phi3

4단계: Askimo 설치

5단계: Askimo에서 Ollama 설정

  1. Askimo 열기
  2. 설정 > 공급자 이동
  3. Ollama 활성화
  4. 엔드포인트: http://localhost:11434
  5. 채팅 모델 선택 (예: llama3)
  6. 임베딩 모델: nomic-embed-text

6단계: RAG 프로젝트 생성

  1. 사이드바의 “프로젝트” 아이콘 클릭 or Cmd/Ctrl + P
  2. ”+ 새 프로젝트” 클릭 후 이름 입력, 문서 폴더 선택
  3. 자동 인덱싱 완료 대기 (10-60초)
  4. 프로젝트 내 새 채팅 생성 후 질문 시작

: 업무 문서, 개인 연구, 학습 자료 등 목적별로 여러 프로젝트를 만들 수 있습니다.


인덱싱 대상 파일

포함 형식: .pdf, .docx, .doc, .odt, .xlsx, .xls, .ods, .pptx, .ppt, .txt, .md, .rtf, .eml, .msg, .js, .py, .java, .html, .css, .json, .yaml, .xml

자동 제외: 숨김/임시 파일, 5MB 초과 파일, 이미지/동영상/오디오, 압축 파일(.zip, .rar, .tar)


고급 RAG 기능

주제별 여러 프로젝트

Askimo sidebar showing multiple RAG projects organized by topic: Work Documents, Personal Research, Academic Work, and Creative Projects
  • 업무 문서: 비즈니스 보고서, 회의록, 클라이언트 파일
  • 개인 연구: 취미, 관심사, 학습 자료
  • 학술 연구: 연구 논문, 학습 자료, 논문 메모
  • 크리에이티브 프로젝트: 글쓰기 초안, 아이디어 메모

각 프로젝트는 독립된 인덱스를 가져 쿼리가 관련 문서만 검색합니다.

자동 업데이트

파일 변경, 추가, 삭제 시 자동 재인덱싱. 수동 작업 불필요.

사용자 정의 임베딩 모델

Terminal window
# 전문 임베딩 모델 pull
ollama pull mxbai-embed-large
# Askimo 설정 > 공급자 > Ollama에서 임베딩 모델 변경

성능 팁

기기에 맞는 모델 선택

메모리권장 모델최적 용도
4-8 GBphi3빠른 질문, 간단한 문서
8-16 GBllama3일반 사용, 연구, 글쓰기
16+ GBmistral복잡한 분석, 긴 문서
32+ GBdeepseek-coder대용량 문서 컬렉션

구체적인 질문하기

  • X “이 프로젝트에 대해 알려줘”
  • O “기후 연구 논문의 주요 발견은 무엇인가요?”

RAG vs. 전통적인 문서 검색

기능파일 탐색기PDF 리더Askimo RAG + Ollama
키워드 검색기본빠름전체 파일에서 즉시
시맨틱 검색없음없음의미 이해
자연어 질문없음없음가능
교차 문서한 번에 하나한 번에 하나모든 문서 동시 검색
답변 생성없음없음설명 및 요약
프라이버시로컬로컬완전 로컬

프라이버시 및 보안

  • 인덱싱: Lucene으로 로컬 실행
  • 임베딩: Ollama로 로컬 생성
  • 채팅: Ollama 모델이 내 하드웨어에서 실행
  • 저장: 인덱스 파일은 ~/.askimo/에 보관

모델 다운로드 후에는 완전 오프라인 동작. 어떤 데이터도 기기를 벗어나지 않습니다.


문제 해결

”AI가 내 문서를 모르는 것 같을 때”

  1. 인덱싱 완료 여부 확인
  2. 재인덱싱: 프로젝트 설정 > “프로젝트 재인덱싱”
  3. 지원 파일 형식인지 확인 (5MB 초과 파일은 건너뜀)
Askimo project settings showing the Re-index Project button to trigger manual re-indexing of documents

인덱싱이 느릴 때

  • 초기 인덱싱은 한 번만 필요하므로 기다리세요
  • 이후 업데이트는 변경된 파일만 재인덱싱하므로 빠릅니다
  • 파일이 10,000개 이상이면 더 작은 프로젝트로 분할을 고려하세요

메모리 부족 시

  1. 더 작은 모델 사용 (mistral 대신 phi3)
  2. 다른 메모리 집약적 앱 종료
  3. 컴퓨터 재시작으로 메모리 확보

더 도움이 필요하면 GitHub 토론에 질문하세요.


RAG로 할 수 있는 것들

  • 연구: 수십 개의 논문과 기사에서 빠르게 정보 검색
  • 글쓰기: 소설의 캐릭터, 플롯, 연구 자료 추적
  • 학습: 메모와 자료에 질문하며 효과적으로 공부
  • 업무: 보고서, 회의록, 프로젝트 문서에서 정보 검색
  • 개인: 레시피, 여행 연구, 취미 메모 정리

모든 문서가 프라이빗하고 로컬로 유지됩니다.


자주 묻는 질문

Ollama RAG는 오프라인으로 동작하나요? 네, 완전히 동작합니다. 모델 다운로드와 프로젝트 인덱싱 후에는 인터넷 없이 모든 것이 실행됩니다. 외부 API 호출이 없습니다.

RAG 사용 시 내 데이터는 안전한가요? 네. 문서는 절대 기기를 벗어나지 않습니다. 인덱싱은 Apache Lucene으로, 임베딩은 로컬 Ollama로, 채팅도 내 하드웨어에서 실행됩니다. 클라우드로 전송되는 것은 없습니다.

지원 파일 형식은? PDF, Word(.docx, .doc), 스프레드시트(.xlsx, .xls), 프레젠테이션(.pptx), 텍스트, Markdown, RTF, 이메일, 소스 코드. 5MB 초과와 바이너리 파일은 자동 제외됩니다.

ChatGPT 파일 업로드와 어떻게 다른가요? 세 가지 차이점: 프라이버시(파일이 기기를 벗어나지 않음), 규모(수백 개 문서를 동시에 검색, 하나가 아님), 정확성(실제 문서 기반 답변으로 환각 현상 크게 감소).

인덱싱은 얼마나 걸리나요? 50-100개 문서는 10-60초. 이후 변경/신규 파일만 자동 재인덱싱되어 업데이트는 즉각적입니다.

RAG에 가장 좋은 Ollama 모델은? Llama 또는 Mistral이 속도와 품질의 최적 균형. RAM 8GB 미만이면 Phi 사용. 임베딩은 nomic-embed-text가 기본 권장입니다.


Askimo와 Ollama 더 알아보기


오늘 Askimo를 사용해보세요: 👉 https://askimo.chat

GitHub에서 별표를: 👉 https://github.com/haiphucnguyen/askimo

질문 또는 피드백? GitHub에서 이슈를 열거나 커뮤니티 토론에 참여하세요.

관련 게시물

Guides

AI 투자 리서치 워크플로우: 멀티스텝 AI로 어떤 종목이든 분석하는 방법

주식 리서치를 하나의 AI 프롬프트로 처리하면 여러 단계에 걸친 추론을 제대로 수행하기 어렵습니다. 이 가이드는 전문 애널리스트가 실제로 사고하는 방식(사업 프로필 → 재무 스트레스 테스트 → 리스크 평가 → 브리프 작성)을 그대로 반영한 AI 투자 리서치 워크플로우를 만드는 방법을 보여줍니다. 각 단계는 이전 단계의 결과를 기반으로 하여 구체적이고 추적 가능하며 PDF 또는 Word로 바로 내보낼 수 있는 결과를 만듭니다.

Guides

AI 이력서 맞춤화: 모든 채용 공고에 맞게 이력서를 몇 분 만에 커스터마이즈하는 방법

일반적인 이력서는 무시됩니다. 채용 담당자와 ATS 시스템은 정확한 키워드 일치, 직무별 언어, 맞춤화된 경험 표현을 필터링합니다. 이 가이드에서는 Askimo Plans를 AI 이력서 테일러로 활용하여 채용 공고를 자동 분석하고, 경험에 매핑하고, 해당 섹션을 다시 작성하여 제출 가능한 이력서를 만드는 방법을 보여줍니다. 프롬프트 엔지니어링은 필요 없습니다.

Askimo Updates

Askimo 앱 업데이트: 다국어 지원, 새로운 테마 및 개발자 도구

Askimo 앱의 대규모 업데이트를 통해 영어, 베트남어, 중국어, 일본어, 한국어, 프랑스어, 독일어, 스페인어, 포르투갈어, 이탈리아어를 포함한 10개 이상의 언어를 지원합니다. 라이트, 다크, 시스템 연동 옵션을 포함한 18가지 테마를 도입했습니다. 새로운 개발자 도구로는 실시간 리소스 모니터링, 향상된 디버깅, 세밀한 로그 제어 기능이 포함됩니다. 특히 Windows에서 성능이 크게 개선되었으며, 모든 플랫폼에서 오류 처리도 향상되었습니다.