Herramientas Informaticas

Etiqueta: IA

🪰🧠 El cerebro virtual de una mosca: el experimento que podría cambiar la neurociencia

Entrada fija

🪰🧠 El cerebro virtual de una mosca: el experimento que podría cambiar la neurociencia

En 2026 ocurrió algo que muchos científicos consideraban ciencia ficción: un cerebro completo de un animal fue recreado dentro de una computadora y conectado a un cuerpo virtual.

Lo más sorprendente es que este cerebro digital comenzó a comportarse como una mosca real sin haber sido entrenado con inteligencia artificial.

Este experimento demuestra algo muy importante:

el comportamiento puede surgir directamente de la estructura del cerebro.

En este artículo aprenderás:

  • 🧠 Qué es el conectoma de la mosca
  • 🪰 Cómo se creó un cerebro virtual
  • 🕹 Cómo se conectó a un cuerpo virtual
  • 🤖 Por qué el sistema funcionó sin entrenamiento
  • 🔬 Qué significa este avance para la inteligencia artificial

🧠 El cerebro de la mosca: pequeño pero extremadamente complejo

La especie más utilizada en investigación es Drosophila melanogaster, conocida como la mosca de la fruta.

Aunque parece un insecto simple, su cerebro tiene una estructura sorprendente.

  • 🧠 alrededor de 125,000 a 140,000 neuronas
  • 🔗 cerca de 50 millones de conexiones neuronales
  • ⚡ circuitos especializados para visión, olfato y movimiento

Comparación con otros cerebros

AnimalNúmero de neuronas
Mosca~140,000
Ratón~75 millones
Humano~86 mil millones

A pesar de su tamaño, las moscas pueden:

  • volar con gran precisión
  • evitar obstáculos
  • buscar comida
  • aprender asociaciones simples

Esto demuestra que incluso cerebros pequeños pueden generar comportamientos complejos.


🔬 Qué es el conectoma

Para entender cómo funciona un cerebro, los científicos necesitan conocer todas las conexiones entre neuronas.

Ese mapa completo se llama conectoma.

Un conectoma muestra:

  • cada neurona
  • cada conexión entre neuronas
  • la dirección de las señales

Es básicamente el diagrama eléctrico completo del cerebro.


🧬 El proyecto que mapeó el cerebro de la mosca

Uno de los proyectos más importantes fue FlyWire.

Este proyecto utilizó:

  • microscopía electrónica
  • inteligencia artificial
  • millones de imágenes microscópicas

Los investigadores cortaron el cerebro en miles de secciones microscópicas y reconstruyeron todas las neuronas.

El resultado fue el primer mapa completo del cerebro de un insecto complejo.


🖥 Cómo recrearon el cerebro dentro de una computadora

Una vez que los científicos obtuvieron el conectoma, el siguiente paso fue convertirlo en un modelo digital.

El proceso fue:

  1. Cada neurona se convirtió en una neurona digital
  2. Cada conexión sináptica fue replicada
  3. Se simuló la actividad eléctrica neuronal

El modelo final contenía aproximadamente:

  • 125,000 neuronas simuladas
  • 50 millones de sinapsis

Las neuronas se modelaron con sistemas matemáticos que imitan cómo disparan impulsos eléctricos.


🕹 Conectar el cerebro digital a un cuerpo virtual

El cerebro digital fue conectado a un cuerpo virtual en un entorno físico simulado.

Para ello se utilizó un sistema llamado NeuroMechFly.

Este sistema simula:

  • el esqueleto de la mosca
  • los músculos
  • las articulaciones
  • los sensores

Además se utilizó el motor físico MuJoCo para calcular movimiento, gravedad y fricción.


🔁 El ciclo cerebro-cuerpo

El sistema funciona como un organismo real mediante un bucle cerrado.

1. El entorno genera estímulos

  • objetos
  • olores
  • obstáculos

2. El cerebro procesa la información

Las señales viajan por las neuronas digitales como en un cerebro real.

3. El cerebro envía órdenes motoras

Las neuronas motoras activan músculos virtuales.

4. El cuerpo virtual se mueve

La mosca virtual puede caminar, girar y explorar.

5. Se generan nuevos estímulos

El movimiento cambia lo que la mosca ve y huele, reiniciando el ciclo.


🤯 Lo más sorprendente: no hubo entrenamiento

En la mayoría de sistemas de inteligencia artificial es necesario entrenar al modelo con grandes cantidades de datos.

Pero en este experimento ocurrió algo distinto:

el comportamiento emergió automáticamente.

Los científicos simplemente replicaron la estructura neuronal real.

Esto demuestra que muchas conductas están codificadas directamente en el cableado del cerebro.


🪰 Qué hizo la mosca virtual

Cuando el cerebro digital se conectó al cuerpo virtual, el sistema comenzó a mostrar comportamientos naturales.

  • caminar
  • explorar el entorno
  • limpiar sus patas
  • reaccionar a estímulos

En muchos casos el comportamiento coincidía con el de moscas reales.


🧠 Qué significa esto para la inteligencia artificial

Este experimento podría cambiar la forma en que se diseñan sistemas inteligentes.

Actualmente la IA depende principalmente de entrenamiento con grandes conjuntos de datos.

Pero este experimento sugiere que la arquitectura neuronal también puede generar inteligencia por sí misma.


🤖 ¿Podría hacerse con cerebros más grandes?

Después de la mosca, los científicos quieren simular cerebros más complejos.

CerebroNúmero de neuronas
Mosca~140,000
Ratón~70 millones
Humano~86 mil millones

El cerebro humano es aproximadamente 600,000 veces más grande que el de una mosca.

Simular algo así requeriría una potencia computacional enorme.


🧠 Conclusión

La recreación digital del cerebro de una mosca representa uno de los avances más importantes en neurociencia.

Por primera vez un cerebro completo fue:

  • simulado digitalmente
  • conectado a un cuerpo virtual
  • capaz de generar comportamiento natural

Este experimento demuestra que gran parte del comportamiento está codificado en la estructura del cerebro.

Aunque todavía estamos muy lejos de simular cerebros humanos completos, este avance podría ayudarnos a entender cómo surge la inteligencia y la mente.

La mosca virtual puede parecer pequeña… 🪰

pero podría ser el primer paso hacia comprender cómo funciona la mente en el universo. 🧠✨

🐪 Guía Completa: Cómo instalar Ollama en tu PC y correr Llama 3 de Meta

Entrada fija

🐪 Guía Completa: Cómo instalar Ollama en tu PC y correr Llama 3 de Meta

En los últimos años, el desarrollo de modelos de lenguaje grandes (LLMs, por sus siglas en inglés) ha avanzado a pasos agigantados. Uno de los más destacados es Llama 3, creado por Meta, que ha logrado competir con modelos comerciales como GPT-4 o Claude, pero con una característica esencial: puede usarse gratis y de forma local gracias a herramientas como Ollama.

Este tutorial busca ser una guía detallada para que cualquier persona pueda instalar Ollama en su computadora, descargar el modelo Llama 3 y comenzar a usarlo sin complicaciones. Nos tomaremos el tiempo de explicar no solo los pasos técnicos, sino también los requisitos, configuraciones recomendadas, posibles errores comunes y cómo integrar Ollama en diferentes entornos de desarrollo.


🔹 1. ¿Qué es Ollama y por qué usarlo?

Ollama es una plataforma que facilita correr modelos de lenguaje grandes en tu computadora de forma local. Esto significa que:

  1. No dependes de la nube: puedes tener tu propio ChatGPT casero sin enviar datos a terceros.
  2. Privacidad total: lo que escribes y lo que el modelo responde se queda en tu PC.
  3. Sin costos ocultos: no necesitas pagar por tokens o suscripciones.
  4. Compatible con diferentes modelos: no solo Llama 3, también Mistral, Phi, Gemma, entre otros.

Meta liberó Llama 3 en abril de 2024 con variantes de 8B y 70B parámetros, entrenados en una enorme cantidad de datos. El modelo de 8B es más ligero y puede correr en una PC con 8-16 GB de RAM, mientras que el de 70B requiere estaciones mucho más potentes (64 GB+ y GPU dedicadas).

Gracias a Ollama, la instalación y uso de Llama 3 se reduce a un par de comandos, sin necesidad de compilar ni configurar manualmente librerías de inteligencia artificial.


🔹 2. Requisitos previos

📌 Hardware mínimo recomendado

  • CPU: procesador moderno con soporte AVX2 (casi todos desde 2015 en adelante).
  • RAM:
  • 8 GB para modelos pequeños.
  • 16 GB o más para un uso fluido.
  • GPU (opcional):
  • NVIDIA con CUDA 11 o superior.
  • Apple Silicon (M1, M2, M3) aprovecha la GPU integrada.
  • Espacio en disco: entre 5 GB y 50 GB, dependiendo del tamaño del modelo.

📌 Software compatible

  • Linux: Ubuntu, Debian, Mint, Fedora, Arch y derivados.
  • macOS: versiones modernas, tanto Intel como Apple Silicon.
  • Windows: requiere WSL2 con Ubuntu (Windows 11 recomendado).

🔹 3. Instalación de Ollama

🐧 En Linux (ejemplo: Ubuntu / Mint / Debian)

curl -fsSL https://ollama.com/install.sh | sh
ollama --version

🍏 En macOS

  1. Descarga el instalador desde la página oficial:
    👉 https://ollama.com/download
  2. Arrastra Ollama.app a la carpeta de Aplicaciones.
  3. Verifica en terminal:
ollama --version

🪟 En Windows 11 (usando WSL2)

wsl --install

Dentro de Ubuntu en WSL2:

curl -fsSL https://ollama.com/install.sh | sh
ollama --version

🔹 4. Descargar e instalar Llama 3

  • Para la versión ligera (8B parámetros):
ollama pull llama3
  • Para la versión grande (70B parámetros):
ollama pull llama3:70b

Ver modelos instalados:

ollama list

🔹 5. Usar Llama 3 con Ollama

ollama run llama3

Ejemplo:

>>> Hola, ¿qué es Ollama?
Ollama es una herramienta que permite correr modelos de lenguaje grandes de manera local en tu computadora.

🔹 6. Integración con APIs y otros lenguajes

Ollama expone una API local en http://localhost:11434

Ejemplo en Python

import requests

response = requests.post("http://localhost:11434/api/generate", json={
  "model": "llama3",
  "prompt": "Explícame la fotosíntesis en 3 líneas"
})

for line in response.iter_lines():
    if line:
        print(line.decode())

Ejemplo en Node.js

import fetch from "node-fetch";

const res = await fetch("http://localhost:11434/api/generate", {
  method: "POST",
  headers: { "Content-Type": "application/json" },
  body: JSON.stringify({
    model: "llama3",
    prompt: "Resume la historia de México en 5 puntos"
  })
});

const data = await res.text();
console.log(data);

🔹 7. Consejos de rendimiento

  1. Prefiere GPU si está disponible.
  2. Usa el modelo correcto según tu RAM.
  3. Administra la memoria cerrando apps pesadas.
  4. Mantén Ollama actualizado.

🔹 8. Problemas comunes y soluciones

  • Comando ollama no encontrado → reinicia terminal o source ~/.bashrc
  • El modelo no descarga → revisa internet y usa ollama pull llama3 --retry
  • Se queda sin RAM → usa modelos pequeños o swap
  • Velocidad lenta en CPU → usa GPU compatible

🔹 9. Comparación con otras herramientas

  • LM Studio → interfaz gráfica.
  • text-generation-webui → muy configurable.
  • GPT4All → multiplataforma.

Ollama destaca por su simplicidad y API unificada.


🔹 10. Aplicaciones prácticas

  1. Asistente personal offline.
  2. Generación de textos.
  3. Tutor académico.
  4. Ayuda en programación.
  5. Automatización de procesos.

🔹 11. Seguridad y privacidad

  • Tus datos no salen de tu PC.
  • Puedes trabajar con información sensible.
  • Ideal para empresas e investigadores.

🔹 12. Próximos pasos

  • Explorar otros modelos:
ollama pull mistral
ollama pull gemma
  • Crear un servidor web con Ollama.
  • Conectar a un frontend en React o Vue.
  • Usarlo en VS Code como asistente de programación.

✅ Conclusión

Instalar Ollama y usar Llama 3 en tu PC es un proceso sencillo que abre un mundo de posibilidades.

  • Principiantes: basta con ollama run llama3.
  • Desarrolladores: la API permite integrarlo en proyectos.
  • Usuarios preocupados por privacidad: toda la IA corre en tu PC.

En definitiva, Ollama + Llama 3 es una combinación poderosa que democratiza la inteligencia artificial.

🎥 Detección de Personas en Video y Grabación Automática Usando Python y OpenCV

Entrada fija

En este artículo explicaremos cómo crear un sistema de detección de personas que grabe automáticamente la pantalla solo cuando se detecta presencia humana. Este proyecto es útil si usas cámaras IP o software como V380 y deseas una forma eficiente de grabar únicamente cuando hay movimiento humano en una región específica del escritorio.


✅ ¿Qué hace este script?

  • Captura un área definida de la pantalla (donde aparece el video de la cámara).
  • Usa un modelo de inteligencia artificial para detectar personas.
  • Comienza a grabar cuando detecta presencia humana.
  • Detiene la grabación si no se ve nadie por un período definido.
  • Guarda los videos automáticamente con marcas de tiempo.

🧠 Tecnologías y librerías usadas

  • OpenCV: procesamiento de imágenes y video.
  • mss: captura rápida de pantalla.
  • NumPy: procesamiento eficiente de matrices.
  • datetime y time: control de tiempo.
  • Modelo Caffe SSD preentrenado: para detección de rostros/personas.

📦 Requisitos

Asegúrate de tener Python 3.8+ (funciona en 3.12) y las siguientes librerías instaladas:

pip install opencv-python numpy mss

También necesitas dos archivos de modelo descargados:

  • deploy.prototxt
  • res10_300x300_ssd_iter_140000.caffemodel

Se pueden obtener desde los repositorios oficiales de OpenCV o desde:

wget https://raw.githubusercontent.com/opencv/opencv/master/samples/dnn/face_detector/deploy.prototxt .

wget https://github.com/opencv/opencv_3rdparty/raw/dnn_samples_face_detector_20170830/res10_300x300_ssd_iter_140000_fp16.caffemodel -O res10_300x300.caffemodel

🧾 El código completo

import cv2
import numpy as np
import time
from mss import mss
from datetime import datetime

# === Configuraciones ===
monitor = {"top": 100, "left": 100, "width": 640, "height": 480}

prototxt = "deploy.prototxt"
model = "res10_300x300_ssd_iter_140000.caffemodel"
NO_PERSON_TIMEOUT = 5

net = cv2.dnn.readNetFromCaffe(prototxt, model)
sct = mss()
recording = False
video_writer = None
last_person_time = 0

def detect_person(frame):
    blob = cv2.dnn.blobFromImage(cv2.resize(frame, (300, 300)), 1.0,
                                 (300, 300), (104.0, 177.0, 123.0))
    net.setInput(blob)
    detections = net.forward()

    for i in range(detections.shape[2]):
        confidence = detections[0, 0, i, 2]
        if confidence > 0.6:
            return True
    return False

def start_recording(filename, frame_size, fps=20):
    fourcc = cv2.VideoWriter_fourcc(*'mp4v')
    return cv2.VideoWriter(filename, fourcc, fps, frame_size)

print("🔍 Monitoreando... Presiona ESC para salir.")

while True:
    frame = np.array(sct.grab(monitor))
    frame = cv2.cvtColor(frame, cv2.COLOR_BGRA2BGR)

    person_detected = detect_person(frame)
    current_time = time.time()

    if person_detected:
        last_person_time = current_time
        if not recording:
            filename = datetime.now().strftime("grabacion_%Y%m%d_%H%M%S.mp4")
            video_writer = start_recording(filename, (monitor["width"], monitor["height"]))
            print(f"🟢 Persona detectada – grabando en: {filename}")
            recording = True
    else:
        if recording and (current_time - last_person_time > NO_PERSON_TIMEOUT):
            print("🔴 No hay persona – deteniendo grabación.")
            recording = False
            video_writer.release()
            video_writer = None

    if recording and video_writer is not None:
        video_writer.write(frame)

    cv2.imshow("Vista", frame)
    if cv2.waitKey(1) == 27:  # ESC
        break

# Limpieza
if video_writer:
    video_writer.release()
cv2.destroyAllWindows()

🛠️ Cómo ajustar a tu uso

  • Cambia las coordenadas de monitor según dónde esté la imagen de la cámara en tu pantalla.
  • Puedes modificar el umbral de confianza (confidence > 0.6) si detecta demasiado o poco.
  • Cambia el tiempo NO_PERSON_TIMEOUT si quieres que espere más o menos antes de cortar la grabación.

📂 Salidas

  • Videos guardados en la misma carpeta, con nombre grabacion_YYYYMMDD_HHMMSS.mp4.
  • No graba sonido (ideal para privacidad o rendimiento).

🖥️ Requisitos mínimos de hardware

  • CPU moderna (Intel i5 o Ryzen 5 en adelante recomendado).
  • RAM: 4 GB mínimo (8+ recomendado).
  • Sistema operativo: Linux o Windows.
  • Sin GPU necesaria, ya que el modelo es liviano.

Creado con WordPress & Tema de Anders Norén