Guides

Chatea con tus Documentos usando Ollama y RAG: IA Local Gratuita para PDFs, Word y Artículos

Askimo RAG with Ollama - Chat with your documents using local AI models

¿Alguna vez quisiste hacer preguntas sobre tus documentos, artículos de investigación o archivos de proyecto sin subirlos a la nube? RAG (Recuperación Aumentada por Generación) con Ollama en Askimo lo hace posible. Modelos de IA locales como Llama, Mistral o Phi pueden responder preguntas sobre tus PDFs, documentos Word, notas y cualquier archivo de texto, todo ejecutándose completamente en tu máquina.

TL;DR: Instala Ollama, descarga un modelo como llama3 o mistral, descarga Askimo, crea un proyecto apuntando a tu carpeta de documentos y empieza a hacer preguntas. Tus archivos se indexan localmente y la IA recupera información relevante para responder tus preguntas. Sin internet tras la configuración.

¿Nuevo en Ollama? Lee nuestra guía sobre por qué Askimo es la mejor app de escritorio para Ollama.


¿Por qué usar RAG con Ollama para tus documentos?

El problema: la IA no conoce tus archivos

Cuando aparecieron ChatGPT y asistentes similares, revolucionaron las respuestas a preguntas generales. Estos herramientas destacan en conocimiento general porque están entrenadas con enormes cantidades de datos públicos.

Pero al intentar aplicar IA a su trabajo real, los usuarios chocaron con una pared:

La limitación del documento único: Al principio podías subir un documento y hacer preguntas. Funcionaba para tareas rápidas como “resume este informe”. Pero el trabajo real implica mucho más:

  • Artículos de investigación: No tienes un artículo, tienes 20, 50 o más de 100 que necesitas sintetizar
  • Políticas de empresa: Tu organización tiene decenas de documentos de políticas, manuales y guías
  • Documentación de proyectos: Notas de reuniones, requisitos, especificaciones técnicas y comunicaciones dispersas en archivos
  • Conocimiento personal: Años de notas, investigación y escritura que quieres consultar

El problema más profundo: Cuando preguntas a un asistente de IA típico sobre tu trabajo:

  • Respuestas genéricas: La IA responde basándose en sus datos de entrenamiento de internet, no en lo que hay en tus archivos específicos.
  • Alucinaciones: Sin acceso a tus documentos, la IA puede inventar información que suena plausible pero no existe en tus archivos.
  • Sin contexto entre múltiples archivos: No puedes preguntar “¿Qué dicen todos mis artículos sobre metodología?” La IA no tiene una visión holística de tu colección.
  • Conocimiento perdido: Todos esos años de notas acumuladas, la IA no puede ayudarte a encontrar patrones o conexiones enterradas en tus archivos.
  • Preocupaciones de privacidad: Para obtener ayuda específica de documentos, tendrías que subir documentos sensibles a servicios en la nube.

Esto es exactamente lo que RAG con Ollama resuelve.

La solución: RAG hace que la IA local sea consciente de los documentos

Con RAG, los modelos Ollama se convierten en tu asistente de investigación personal que realmente conoce tus archivos:

  • Respuestas fundamentadas: Las respuestas referencian tus documentos reales, no información genérica
  • Memoria de archivos: La IA “recuerda” todos tus documentos y su contenido
  • Contexto instantáneo: Recupera automáticamente información relevante cuando haces preguntas
  • Privacidad completa: Todo se ejecuta localmente - tus archivos nunca salen de tu máquina

Más información: Para una comparación detallada de clientes Ollama, consulta nuestra guía Mejores clientes Ollama en 2026.


Cómo funciona RAG con Ollama

Cuando creas un proyecto en Askimo y activas RAG:

  1. Indexación: Tus archivos se leen, dividen en fragmentos y organizan para búsqueda rápida
  2. Almacenamiento: El índice vive en tu máquina (normalmente ocupa el 10-30% del tamaño de tus archivos)
  3. Recuperación: Cuando haces una pregunta, se encuentra automáticamente información relevante
  4. Inyección: Estos fragmentos se muestran a la IA antes de que responda
  5. Generación: Los modelos Ollama usan este contexto para dar respuestas precisas y específicas

Todo esto sucede localmente - sin llamadas a API externas para indexación o recuperación.

¿Quieres detalles técnicos? Visita nuestra documentación RAG.


Casos de uso del mundo real

Investigación: Síntesis a través de múltiples artículos

El desafío: Tienes 50+ artículos de investigación sobre cambio climático. La búsqueda tradicional encuentra palabras clave pero no puede sintetizar hallazgos entre documentos.

Con RAG:

You: "What are the main findings across all my climate research papers?"
Llama 3: Based on your papers, three key findings emerge:
1. Temperature increases correlate with CO2 levels (mentioned in 12 papers)
2. Ocean acidification is accelerating faster than predicted (7 papers)
3. Renewable energy adoption is cost-effective (15 papers with economic data)
Sources: climate-change-2023.pdf, renewable-study.docx, ocean-research.pdf [and 9 more]

Preguntas reales que puedes hacer:

  • “Compara las metodologías usadas en mis estudios de energía renovable”
  • “¿Qué conjuntos de datos aparecen más frecuentemente en mi colección de investigación?”
  • “Encuentra conclusiones contradictorias sobre la eficiencia de los paneles solares”

Escritura: Gestión de proyectos de formato largo

El desafío: Tu novela tiene 30 capítulos, notas de personajes, documentos de construcción del mundo y esquemas de trama. Hacer un seguimiento de los detalles en cientos de páginas es difícil.

Con RAG:

You: "Has Elena ever mentioned being afraid of water in any chapter?"
Mistral: Yes, in chapter 7 Elena mentions she nearly drowned as a child. She also
avoids the harbor scene in chapter 12 saying "I don't do boats." Your character
notes list this as a key personality trait stemming from her childhood incident.
Sources: chapter-07.docx, chapter-12.docx, character-profiles.md

Preguntas reales que puedes hacer:

  • “¿Qué habilidades mágicas ha demostrado el antagonista hasta ahora?”
  • “Lista todos los lugares que he descrito en el Reino Oriental”
  • “¿Qué inconsistencias de línea temporal existen entre los capítulos 3, 8 y 15?”

Trabajo: Acceso rápido al conocimiento de la empresa

El desafío: Tu equipo tiene cientos de documentos: políticas, notas de reuniones, especificaciones de proyectos, retroalimentación de clientes. Encontrar información específica desperdicia horas cada semana.

Con RAG:

You: "What's our policy on remote work expenses?"
Llama 3: According to the HR Policy Handbook (updated Jan 2026), employees can
expense up to $500/month for home office equipment and $150/month for internet.
Receipts must be submitted within 30 days. See section 4.2 for full details.
Source: HR-Policies-2026.pdf (page 23)

Preguntas reales que puedes hacer:

  • “¿Cuáles fueron los puntos de acción de la reunión del equipo de la semana pasada?”
  • “Encuentra todos los comentarios de clientes que mencionan la app móvil”
  • “Resume las métricas de rendimiento del Q4 2025”

Configurar RAG con Ollama

Paso 1: Instalar Ollama

Ollama se ejecuta localmente en macOS, Windows y Linux.

macOS:

Terminal window
# Download from https://ollama.com/download/mac
# Or use Homebrew
brew install ollama

Linux:

Terminal window
curl -fsSL https://ollama.com/install.sh | sh

Windows:

Terminal window
# Download installer from https://ollama.com/download/windows

Prueba la instalación:

Terminal window
ollama run llama3

Configuración detallada de Ollama: Mira nuestra guía del proveedor Ollama.

Paso 2: Descargar un modelo de embeddings

RAG necesita un modelo de embeddings para convertir tus documentos en información buscable:

Terminal window
ollama pull nomic-embed-text

Este es el modelo de embeddings predeterminado de Askimo para Ollama - es rápido y funciona bien para todos los tipos de documentos.

Paso 3: Descargar un modelo de chat

Elige un modelo según la memoria de tu computadora:

Terminal window
# For 8GB+ RAM - Fast and capable
ollama pull llama3
# For 16GB+ RAM - Excellent for complex questions
ollama pull mistral
# For 4-8GB RAM - Lightweight
ollama pull phi3

Paso 4: Instalar Askimo

Descarga Askimo para tu plataforma:

Paso 5: Configurar Ollama en Askimo

  1. Abre Askimo
  2. Ve a ConfiguraciónProveedores
  3. Activa Ollama
  4. Establece el endpoint en http://localhost:11434
  5. Selecciona tu modelo de chat (ej. llama3)
  6. Establece el modelo de embeddings en nomic-embed-text

Paso 6: Crear un proyecto con RAG

  1. Abrir el Gestor de Proyectos

    • Haz clic en el ícono “Proyectos” en la barra lateral
    • O usa ⌘/Ctrl + P
  2. Crear nuevo proyecto

    • Haz clic en ”+ Nuevo Proyecto”
    • Ingresa un nombre (ej. “Mis Artículos de Investigación”, “Notas del Libro”, “Materiales de Estudio”)
    • Haz clic en “Seleccionar Carpeta” y elige tu carpeta de documentos
  3. Indexación automática

    • Askimo detecta tus archivos automáticamente
    • La indexación comienza en segundo plano
    • Espera a que finalice (10-60 segundos para colecciones típicas)
  4. Comenzar a chatear

    • Crea un nuevo chat dentro del proyecto
    • RAG se activa automáticamente
    • ¡Haz preguntas sobre tus documentos!

Consejo profesional: Puedes crear múltiples proyectos para diferentes propósitos - uno para documentos de trabajo, uno para investigación personal, uno para materiales de estudio, etc.


Qué se indexa

Askimo indexa tus archivos de manera inteligente:

Archivos incluidos

  • Documentos: .pdf, .docx, .doc, .odt (el texto se extrae automáticamente)
  • Hojas de cálculo: .xlsx, .xls, .ods
  • Presentaciones: .pptx, .ppt, .odp
  • Archivos de texto: .txt, .md, .rtf
  • Correos electrónicos: .eml, .msg
  • Notas y escritura: Markdown, texto plano, texto enriquecido
  • Código fuente: .js, .py, .java, .html, .css (para usuarios técnicos)
  • Configuración: .json, .yaml, .xml

Excluidos automáticamente

  • Archivos del sistema: Archivos ocultos, archivos temporales
  • Archivos grandes: Archivos mayores de 5 MB (para mantener la indexación rápida)
  • Archivos binarios: Imágenes, videos, audio (a menos que sean tipos de documento compatibles)
  • Archivos comprimidos: .zip, .rar, .tar

Ejemplo: Chateando con tus artículos de investigación

Crea un proyecto apuntando a tu carpeta de investigación:

my-research/
├── climate-change-2023.pdf
├── renewable-energy-study.pdf
├── notes/
│ └── literature-review.md
└── data/
└── analysis-summary.pdf

La indexación completa en ~20 segundos. Ahora puedes preguntar:

Tú: “¿Cuáles son los principales hallazgos sobre la eficiencia de los paneles solares?”

Llama 3:

Según tus artículos de investigación, los paneles modernos alcanzan una eficiencia del 20-22%, frente al 15% de hace una década. Los paneles bifaciales pueden alcanzar el 25% en condiciones óptimas.

Sources: solar-panel-efficiency.docx, renewable-energy-study.pdf

Observa cómo la IA referencia tus documentos reales, no información genérica de internet.


Funciones avanzadas de RAG

Múltiples proyectos para diferentes temas

Askimo sidebar showing multiple RAG projects organized by topic: Work Documents, Personal Research, Academic Work, and Creative Projects

Organiza tus documentos en proyectos separados:

  • Documentos de trabajo: Informes de negocio, notas de reuniones, archivos de clientes
  • Investigación personal: Hobbies, intereses, materiales de aprendizaje
  • Trabajo académico: Materiales de estudio, artículos de investigación, notas de tesis
  • Proyectos creativos: Escritura, notas de arte, documentos de brainstorming

Actualizaciones automáticas

Askimo detecta cambios en archivos automáticamente:

  • Archivo modificado: Re-indexa solo ese archivo
  • Archivo añadido: Se añade al índice
  • Archivo eliminado: Se elimina del índice

Modelos de embeddings personalizados

Para usuarios avanzados que quieran experimentar:

Terminal window
# Pull a specialized embedding model
ollama pull mxbai-embed-large
# In Askimo Settings → Providers → Ollama
# Change embedding model to: mxbai-embed-large

Consejos de rendimiento

Elige el modelo adecuado para tu computadora

Memoria de tu computadoraModelo recomendadoMejor para
4-8 GBphi3Preguntas rápidas, documentos simples
8-16 GBllama3Uso general, investigación, escritura
16+ GBmistralAnálisis complejos, documentos largos
32+ GBdeepseek-coderGrandes colecciones de documentos

Haz preguntas específicas

En lugar de preguntas amplias, sé específico:

  • ❌ “Cuéntame sobre este proyecto”
  • ✅ “¿Cuáles son los hallazgos clave en los artículos de investigación climática?”

RAG vs. búsqueda tradicional de documentos

FunciónBúsqueda en ExploradorBúsqueda en PDFAskimo RAG con Ollama
Búsqueda por palabra clave✅ Básica✅ Rápida✅ Instantánea en todos los archivos
Búsqueda semántica❌ No❌ No✅ Entiende el significado
Lenguaje natural❌ No❌ No✅ Preguntas en lenguaje natural
Entre documentos❌ Uno a la vez❌ Uno a la vez✅ Busca todos los documentos
Comprensión contextual❌ No❌ No✅ Entiende relaciones
Generación de respuestas❌ No❌ No✅ Explica y resume
Privacidad✅ Local✅ Local✅ Totalmente local

Privacidad y seguridad

Todo se queda local

  • Indexación: Se ejecuta en tu máquina usando Lucene
  • Embeddings: Generados localmente por Ollama
  • Chat: Los modelos Ollama se ejecutan en tu hardware
  • Almacenamiento: Los archivos de índice permanecen en ~/.askimo/

Sin dependencias externas

Una vez que hayas descargado los modelos Ollama:

  • Funciona completamente offline
  • Sin llamadas a la API de servicios externos
  • Ningún dato sale de tu máquina

Solución de problemas

”La IA no parece conocer mis documentos”

Posibles causas:

  1. Proyecto aún no indexado: Revisa el estado de indexación en la vista del proyecto
  2. Archivos no compatibles: Asegúrate de usar tipos de archivo compatibles (PDF, DOCX, TXT, etc.)
  3. Archivos demasiado grandes: Los archivos mayores de 5 MB se omiten

Solución:

  1. Espera a que la indexación finalice
  2. Intenta re-indexar: Configuración del proyecto → “Re-indexar Proyecto”
  3. Asegúrate de que RAG esté activado para tu chat
Askimo project settings showing the Re-index Project button to trigger manual re-indexing of documents

Indexación lenta

Solución:

  1. Ten paciencia - la indexación inicial lleva tiempo pero solo ocurre una vez
  2. Las actualizaciones futuras son mucho más rápidas
  3. Considera organizar en proyectos más pequeños si tienes 10,000+ archivos

Sin memoria suficiente

Solución:

  1. Usa un modelo más pequeño (phi3 en lugar de mistral)
  2. Cierra otras aplicaciones que consuman mucha memoria
  3. Reinicia tu computadora para liberar memoria

¿Necesitas más ayuda? Pregunta en nuestras discusiones de GitHub.


Qué puedes hacer con RAG

RAG con Ollama en Askimo abre nuevas posibilidades:

  • Investigación: Encontrar información rápidamente en decenas de artículos
  • Escritura: Hacer seguimiento de personajes, puntos de trama e investigación para tus libros
  • Aprendizaje: Estudiar más efectivamente haciendo preguntas sobre tus notas
  • Trabajo: Encontrar información en informes, notas de reuniones y documentación de proyectos
  • Personal: Organizar recetas, investigación de viajes, notas de hobbies y más

Todo mientras mantienes tus documentos privados y locales - nada sale de tu computadora.


Preguntas frecuentes

¿Funciona RAG con Ollama sin conexión? Sí, completamente. Una vez que los modelos Ollama están descargados y tu proyecto indexado, todo funciona sin conexión a internet. Indexación, recuperación y respuestas de IA ocurren en tu máquina. No hay llamadas a API externas en ninguna etapa.

¿Son privados mis datos al usar RAG con Ollama? Sí. Tus documentos nunca salen de tu máquina. La indexación se hace localmente con Apache Lucene, los embeddings son generados por un modelo local de Ollama, y el modelo de chat corre en tu propio hardware. Nada se envía a ningún servicio en la nube.

¿Qué tipos de archivos admite Askimo RAG? PDFs, documentos Word (.docx, .doc), hojas de cálculo (.xlsx, .xls), presentaciones (.pptx), texto plano, Markdown, archivos de texto enriquecido, correos electrónicos y archivos de código fuente. Los archivos mayores de 5 MB y los archivos binarios (imágenes, video, audio) se excluyen automáticamente.

¿En qué se diferencia RAG con Ollama de subir un documento a ChatGPT? Tres diferencias clave: privacidad (tus archivos nunca salen de tu máquina), escala (RAG busca en cientos de documentos simultáneamente, no solo uno) y precisión (las respuestas se basan en tus documentos reales en lugar de los datos de entrenamiento, lo que reduce significativamente las alucinaciones).

¿Cuánto tarda la indexación? Para una carpeta típica de 50-100 documentos, la indexación inicial tarda 10-60 segundos. Después, solo los archivos cambiados o nuevos se re-indexan automáticamente, por lo que las actualizaciones son casi instantáneas.

¿Qué modelo de Ollama funciona mejor para RAG? Para la mayoría de usuarios, Llama o Mistral ofrece el mejor equilibrio entre velocidad y calidad de respuesta. Si tienes menos de 8 GB de RAM, usa Phi. Para el modelo de embeddings, nomic-embed-text es el predeterminado recomendado.


Aprende más sobre Askimo y Ollama

¿Listo para explorar más funciones?


Prueba Askimo hoy: 👉 https://askimo.chat

Dale una estrella al proyecto: 👉 https://github.com/haiphucnguyen/askimo

¿Preguntas o comentarios? Abre un issue en GitHub o únete a nuestras discusiones de la comunidad. ¡Nos encantaría escuchar cómo estás usando RAG con tus documentos!

Publicaciones Relacionadas

Guides

Workflow de investigación de inversión con IA: cómo analizar cualquier acción con IA en múltiples pasos

Un único prompt de IA para investigar acciones no puede razonar bien a través de múltiples etapas. Esta guía muestra cómo construir un workflow de investigación de inversión con IA que refleja cómo piensan los analistas profesionales: perfilar el negocio, poner a prueba las finanzas, evaluar el riesgo y luego redactar el informe. Cada etapa se apoya en la anterior y produce un resultado específico, trazable y listo para exportar a PDF o Word.

Guides

Personalización de CV con IA: adapta tu currículum a cada oferta de empleo en minutos

Un currículum genérico es ignorado. Los reclutadores y los sistemas ATS filtran por coincidencias exactas de palabras clave, lenguaje específico del puesto y presentación adaptada de la experiencia. Esta guía muestra cómo usar Askimo Plans como herramienta de personalización de CV: analizar automáticamente la oferta, mapear tu experiencia, reescribir las secciones relevantes y producir un currículum listo para enviar. No se requieren conocimientos de prompt engineering.

Askimo Updates

Actualización de la App Askimo: Soporte Multilingüe, Nuevos Temas y Herramientas para Desarrolladores

La gran actualización de la App Askimo incorpora soporte multilingüe para más de 10 idiomas, incluidos inglés, vietnamita, chino, japonés, coreano, francés, alemán, español, portugués e italiano. Introduce 18 temas con opciones claras, oscuras y adaptativas al sistema. Las nuevas herramientas para desarrolladores incluyen monitoreo de recursos en tiempo real, depuración mejorada y controles de registro granulares. Mejoras significativas de rendimiento, especialmente en Windows, y mejor manejo de errores en todas las plataformas.