Herramientas Informaticas

Etiqueta: IA

🐪 Guía Completa: Cómo instalar Ollama en tu PC y correr Llama 3 de Meta

Entrada fija

🐪 Guía Completa: Cómo instalar Ollama en tu PC y correr Llama 3 de Meta

En los últimos años, el desarrollo de modelos de lenguaje grandes (LLMs, por sus siglas en inglés) ha avanzado a pasos agigantados. Uno de los más destacados es Llama 3, creado por Meta, que ha logrado competir con modelos comerciales como GPT-4 o Claude, pero con una característica esencial: puede usarse gratis y de forma local gracias a herramientas como Ollama.

Este tutorial busca ser una guía detallada para que cualquier persona pueda instalar Ollama en su computadora, descargar el modelo Llama 3 y comenzar a usarlo sin complicaciones. Nos tomaremos el tiempo de explicar no solo los pasos técnicos, sino también los requisitos, configuraciones recomendadas, posibles errores comunes y cómo integrar Ollama en diferentes entornos de desarrollo.


🔹 1. ¿Qué es Ollama y por qué usarlo?

Ollama es una plataforma que facilita correr modelos de lenguaje grandes en tu computadora de forma local. Esto significa que:

  1. No dependes de la nube: puedes tener tu propio ChatGPT casero sin enviar datos a terceros.
  2. Privacidad total: lo que escribes y lo que el modelo responde se queda en tu PC.
  3. Sin costos ocultos: no necesitas pagar por tokens o suscripciones.
  4. Compatible con diferentes modelos: no solo Llama 3, también Mistral, Phi, Gemma, entre otros.

Meta liberó Llama 3 en abril de 2024 con variantes de 8B y 70B parámetros, entrenados en una enorme cantidad de datos. El modelo de 8B es más ligero y puede correr en una PC con 8-16 GB de RAM, mientras que el de 70B requiere estaciones mucho más potentes (64 GB+ y GPU dedicadas).

Gracias a Ollama, la instalación y uso de Llama 3 se reduce a un par de comandos, sin necesidad de compilar ni configurar manualmente librerías de inteligencia artificial.


🔹 2. Requisitos previos

📌 Hardware mínimo recomendado

  • CPU: procesador moderno con soporte AVX2 (casi todos desde 2015 en adelante).
  • RAM:
  • 8 GB para modelos pequeños.
  • 16 GB o más para un uso fluido.
  • GPU (opcional):
  • NVIDIA con CUDA 11 o superior.
  • Apple Silicon (M1, M2, M3) aprovecha la GPU integrada.
  • Espacio en disco: entre 5 GB y 50 GB, dependiendo del tamaño del modelo.

📌 Software compatible

  • Linux: Ubuntu, Debian, Mint, Fedora, Arch y derivados.
  • macOS: versiones modernas, tanto Intel como Apple Silicon.
  • Windows: requiere WSL2 con Ubuntu (Windows 11 recomendado).

🔹 3. Instalación de Ollama

🐧 En Linux (ejemplo: Ubuntu / Mint / Debian)

curl -fsSL https://ollama.com/install.sh | sh
ollama --version

🍏 En macOS

  1. Descarga el instalador desde la página oficial:
    👉 https://ollama.com/download
  2. Arrastra Ollama.app a la carpeta de Aplicaciones.
  3. Verifica en terminal:
ollama --version

🪟 En Windows 11 (usando WSL2)

wsl --install

Dentro de Ubuntu en WSL2:

curl -fsSL https://ollama.com/install.sh | sh
ollama --version

🔹 4. Descargar e instalar Llama 3

  • Para la versión ligera (8B parámetros):
ollama pull llama3
  • Para la versión grande (70B parámetros):
ollama pull llama3:70b

Ver modelos instalados:

ollama list

🔹 5. Usar Llama 3 con Ollama

ollama run llama3

Ejemplo:

>>> Hola, ¿qué es Ollama?
Ollama es una herramienta que permite correr modelos de lenguaje grandes de manera local en tu computadora.

🔹 6. Integración con APIs y otros lenguajes

Ollama expone una API local en http://localhost:11434

Ejemplo en Python

import requests

response = requests.post("http://localhost:11434/api/generate", json={
  "model": "llama3",
  "prompt": "Explícame la fotosíntesis en 3 líneas"
})

for line in response.iter_lines():
    if line:
        print(line.decode())

Ejemplo en Node.js

import fetch from "node-fetch";

const res = await fetch("http://localhost:11434/api/generate", {
  method: "POST",
  headers: { "Content-Type": "application/json" },
  body: JSON.stringify({
    model: "llama3",
    prompt: "Resume la historia de México en 5 puntos"
  })
});

const data = await res.text();
console.log(data);

🔹 7. Consejos de rendimiento

  1. Prefiere GPU si está disponible.
  2. Usa el modelo correcto según tu RAM.
  3. Administra la memoria cerrando apps pesadas.
  4. Mantén Ollama actualizado.

🔹 8. Problemas comunes y soluciones

  • Comando ollama no encontrado → reinicia terminal o source ~/.bashrc
  • El modelo no descarga → revisa internet y usa ollama pull llama3 --retry
  • Se queda sin RAM → usa modelos pequeños o swap
  • Velocidad lenta en CPU → usa GPU compatible

🔹 9. Comparación con otras herramientas

  • LM Studio → interfaz gráfica.
  • text-generation-webui → muy configurable.
  • GPT4All → multiplataforma.

Ollama destaca por su simplicidad y API unificada.


🔹 10. Aplicaciones prácticas

  1. Asistente personal offline.
  2. Generación de textos.
  3. Tutor académico.
  4. Ayuda en programación.
  5. Automatización de procesos.

🔹 11. Seguridad y privacidad

  • Tus datos no salen de tu PC.
  • Puedes trabajar con información sensible.
  • Ideal para empresas e investigadores.

🔹 12. Próximos pasos

  • Explorar otros modelos:
ollama pull mistral
ollama pull gemma
  • Crear un servidor web con Ollama.
  • Conectar a un frontend en React o Vue.
  • Usarlo en VS Code como asistente de programación.

✅ Conclusión

Instalar Ollama y usar Llama 3 en tu PC es un proceso sencillo que abre un mundo de posibilidades.

  • Principiantes: basta con ollama run llama3.
  • Desarrolladores: la API permite integrarlo en proyectos.
  • Usuarios preocupados por privacidad: toda la IA corre en tu PC.

En definitiva, Ollama + Llama 3 es una combinación poderosa que democratiza la inteligencia artificial.

🎥 Detección de Personas en Video y Grabación Automática Usando Python y OpenCV

Entrada fija

En este artículo explicaremos cómo crear un sistema de detección de personas que grabe automáticamente la pantalla solo cuando se detecta presencia humana. Este proyecto es útil si usas cámaras IP o software como V380 y deseas una forma eficiente de grabar únicamente cuando hay movimiento humano en una región específica del escritorio.


✅ ¿Qué hace este script?

  • Captura un área definida de la pantalla (donde aparece el video de la cámara).
  • Usa un modelo de inteligencia artificial para detectar personas.
  • Comienza a grabar cuando detecta presencia humana.
  • Detiene la grabación si no se ve nadie por un período definido.
  • Guarda los videos automáticamente con marcas de tiempo.

🧠 Tecnologías y librerías usadas

  • OpenCV: procesamiento de imágenes y video.
  • mss: captura rápida de pantalla.
  • NumPy: procesamiento eficiente de matrices.
  • datetime y time: control de tiempo.
  • Modelo Caffe SSD preentrenado: para detección de rostros/personas.

📦 Requisitos

Asegúrate de tener Python 3.8+ (funciona en 3.12) y las siguientes librerías instaladas:

pip install opencv-python numpy mss

También necesitas dos archivos de modelo descargados:

  • deploy.prototxt
  • res10_300x300_ssd_iter_140000.caffemodel

Se pueden obtener desde los repositorios oficiales de OpenCV o desde:

wget https://raw.githubusercontent.com/opencv/opencv/master/samples/dnn/face_detector/deploy.prototxt .

wget https://github.com/opencv/opencv_3rdparty/raw/dnn_samples_face_detector_20170830/res10_300x300_ssd_iter_140000_fp16.caffemodel -O res10_300x300.caffemodel

🧾 El código completo

import cv2
import numpy as np
import time
from mss import mss
from datetime import datetime

# === Configuraciones ===
monitor = {"top": 100, "left": 100, "width": 640, "height": 480}

prototxt = "deploy.prototxt"
model = "res10_300x300_ssd_iter_140000.caffemodel"
NO_PERSON_TIMEOUT = 5

net = cv2.dnn.readNetFromCaffe(prototxt, model)
sct = mss()
recording = False
video_writer = None
last_person_time = 0

def detect_person(frame):
    blob = cv2.dnn.blobFromImage(cv2.resize(frame, (300, 300)), 1.0,
                                 (300, 300), (104.0, 177.0, 123.0))
    net.setInput(blob)
    detections = net.forward()

    for i in range(detections.shape[2]):
        confidence = detections[0, 0, i, 2]
        if confidence > 0.6:
            return True
    return False

def start_recording(filename, frame_size, fps=20):
    fourcc = cv2.VideoWriter_fourcc(*'mp4v')
    return cv2.VideoWriter(filename, fourcc, fps, frame_size)

print("🔍 Monitoreando... Presiona ESC para salir.")

while True:
    frame = np.array(sct.grab(monitor))
    frame = cv2.cvtColor(frame, cv2.COLOR_BGRA2BGR)

    person_detected = detect_person(frame)
    current_time = time.time()

    if person_detected:
        last_person_time = current_time
        if not recording:
            filename = datetime.now().strftime("grabacion_%Y%m%d_%H%M%S.mp4")
            video_writer = start_recording(filename, (monitor["width"], monitor["height"]))
            print(f"🟢 Persona detectada – grabando en: {filename}")
            recording = True
    else:
        if recording and (current_time - last_person_time > NO_PERSON_TIMEOUT):
            print("🔴 No hay persona – deteniendo grabación.")
            recording = False
            video_writer.release()
            video_writer = None

    if recording and video_writer is not None:
        video_writer.write(frame)

    cv2.imshow("Vista", frame)
    if cv2.waitKey(1) == 27:  # ESC
        break

# Limpieza
if video_writer:
    video_writer.release()
cv2.destroyAllWindows()

🛠️ Cómo ajustar a tu uso

  • Cambia las coordenadas de monitor según dónde esté la imagen de la cámara en tu pantalla.
  • Puedes modificar el umbral de confianza (confidence > 0.6) si detecta demasiado o poco.
  • Cambia el tiempo NO_PERSON_TIMEOUT si quieres que espere más o menos antes de cortar la grabación.

📂 Salidas

  • Videos guardados en la misma carpeta, con nombre grabacion_YYYYMMDD_HHMMSS.mp4.
  • No graba sonido (ideal para privacidad o rendimiento).

🖥️ Requisitos mínimos de hardware

  • CPU moderna (Intel i5 o Ryzen 5 en adelante recomendado).
  • RAM: 4 GB mínimo (8+ recomendado).
  • Sistema operativo: Linux o Windows.
  • Sin GPU necesaria, ya que el modelo es liviano.

Creado con WordPress & Tema de Anders Norén