🐪 Guía Completa: Cómo instalar Ollama en tu PC y correr Llama 3 de Meta
En los últimos años, el desarrollo de modelos de lenguaje grandes (LLMs, por sus siglas en inglés) ha avanzado a pasos agigantados. Uno de los más destacados es Llama 3, creado por Meta, que ha logrado competir con modelos comerciales como GPT-4 o Claude, pero con una característica esencial: puede usarse gratis y de forma local gracias a herramientas como Ollama.
Este tutorial busca ser una guía detallada para que cualquier persona pueda instalar Ollama en su computadora, descargar el modelo Llama 3 y comenzar a usarlo sin complicaciones. Nos tomaremos el tiempo de explicar no solo los pasos técnicos, sino también los requisitos, configuraciones recomendadas, posibles errores comunes y cómo integrar Ollama en diferentes entornos de desarrollo.
🔹 1. ¿Qué es Ollama y por qué usarlo?
Ollama es una plataforma que facilita correr modelos de lenguaje grandes en tu computadora de forma local. Esto significa que:
- No dependes de la nube: puedes tener tu propio ChatGPT casero sin enviar datos a terceros.
- Privacidad total: lo que escribes y lo que el modelo responde se queda en tu PC.
- Sin costos ocultos: no necesitas pagar por tokens o suscripciones.
- Compatible con diferentes modelos: no solo Llama 3, también Mistral, Phi, Gemma, entre otros.
Meta liberó Llama 3 en abril de 2024 con variantes de 8B y 70B parámetros, entrenados en una enorme cantidad de datos. El modelo de 8B es más ligero y puede correr en una PC con 8-16 GB de RAM, mientras que el de 70B requiere estaciones mucho más potentes (64 GB+ y GPU dedicadas).
Gracias a Ollama, la instalación y uso de Llama 3 se reduce a un par de comandos, sin necesidad de compilar ni configurar manualmente librerías de inteligencia artificial.
🔹 2. Requisitos previos
📌 Hardware mínimo recomendado
- CPU: procesador moderno con soporte AVX2 (casi todos desde 2015 en adelante).
- RAM:
- 8 GB para modelos pequeños.
- 16 GB o más para un uso fluido.
- GPU (opcional):
- NVIDIA con CUDA 11 o superior.
- Apple Silicon (M1, M2, M3) aprovecha la GPU integrada.
- Espacio en disco: entre 5 GB y 50 GB, dependiendo del tamaño del modelo.
📌 Software compatible
- Linux: Ubuntu, Debian, Mint, Fedora, Arch y derivados.
- macOS: versiones modernas, tanto Intel como Apple Silicon.
- Windows: requiere WSL2 con Ubuntu (Windows 11 recomendado).
🔹 3. Instalación de Ollama
🐧 En Linux (ejemplo: Ubuntu / Mint / Debian)
curl -fsSL https://ollama.com/install.sh | sh
ollama --version
🍏 En macOS
- Descarga el instalador desde la página oficial:
👉 https://ollama.com/download - Arrastra Ollama.app a la carpeta de Aplicaciones.
- Verifica en terminal:
ollama --version
🪟 En Windows 11 (usando WSL2)
wsl --install
Dentro de Ubuntu en WSL2:
curl -fsSL https://ollama.com/install.sh | sh
ollama --version
🔹 4. Descargar e instalar Llama 3
- Para la versión ligera (8B parámetros):
ollama pull llama3
- Para la versión grande (70B parámetros):
ollama pull llama3:70b
Ver modelos instalados:
ollama list
🔹 5. Usar Llama 3 con Ollama
ollama run llama3
Ejemplo:
>>> Hola, ¿qué es Ollama?
Ollama es una herramienta que permite correr modelos de lenguaje grandes de manera local en tu computadora.
🔹 6. Integración con APIs y otros lenguajes
Ollama expone una API local en http://localhost:11434
Ejemplo en Python
import requests
response = requests.post("http://localhost:11434/api/generate", json={
"model": "llama3",
"prompt": "Explícame la fotosíntesis en 3 líneas"
})
for line in response.iter_lines():
if line:
print(line.decode())
Ejemplo en Node.js
import fetch from "node-fetch";
const res = await fetch("http://localhost:11434/api/generate", {
method: "POST",
headers: { "Content-Type": "application/json" },
body: JSON.stringify({
model: "llama3",
prompt: "Resume la historia de México en 5 puntos"
})
});
const data = await res.text();
console.log(data);
🔹 7. Consejos de rendimiento
- Prefiere GPU si está disponible.
- Usa el modelo correcto según tu RAM.
- Administra la memoria cerrando apps pesadas.
- Mantén Ollama actualizado.
🔹 8. Problemas comunes y soluciones
- Comando
ollama
no encontrado → reinicia terminal osource ~/.bashrc
- El modelo no descarga → revisa internet y usa
ollama pull llama3 --retry
- Se queda sin RAM → usa modelos pequeños o swap
- Velocidad lenta en CPU → usa GPU compatible
🔹 9. Comparación con otras herramientas
- LM Studio → interfaz gráfica.
- text-generation-webui → muy configurable.
- GPT4All → multiplataforma.
Ollama destaca por su simplicidad y API unificada.
🔹 10. Aplicaciones prácticas
- Asistente personal offline.
- Generación de textos.
- Tutor académico.
- Ayuda en programación.
- Automatización de procesos.
🔹 11. Seguridad y privacidad
- Tus datos no salen de tu PC.
- Puedes trabajar con información sensible.
- Ideal para empresas e investigadores.
🔹 12. Próximos pasos
- Explorar otros modelos:
ollama pull mistral
ollama pull gemma
- Crear un servidor web con Ollama.
- Conectar a un frontend en React o Vue.
- Usarlo en VS Code como asistente de programación.
✅ Conclusión
Instalar Ollama y usar Llama 3 en tu PC es un proceso sencillo que abre un mundo de posibilidades.
- Principiantes: basta con
ollama run llama3
. - Desarrolladores: la API permite integrarlo en proyectos.
- Usuarios preocupados por privacidad: toda la IA corre en tu PC.
En definitiva, Ollama + Llama 3 es una combinación poderosa que democratiza la inteligencia artificial.
Deja un comentario