Laboratorio de Inteligencia Artificial
El nodo de control y automatización, por su parte, se ejecuta en el equipo local, Nagasaki, bajo Ubuntu sobre WSL2 en Windows 11, equipado con un AMD Ryzen 5 3400G a 3.70 GHz y 12 GB de RAM. Esta máquina cumple la función de orquestador central, recibiendo eventos externos, coordinando los flujos de n8n y comunicándose directamente con el servidor Ollama a través de una red privada segura. La exposición al exterior se resolvió mediante Tailscale Funnel, permitiendo disponer de una URL pública con HTTPS válido sin abrir puertos ni depender de infraestructuras comerciales, habilitando así la integración directa con Telegram como interfaz de interacción.
El resultado de esta arquitectura es un micro-laboratorio local de inteligencia artificial distribuido, construido íntegramente con hardware preexistente, de distintas generaciones y sin soluciones empresariales dedicadas. Una máquina remota i3 de arquitectura antigua ejecuta modelos de lenguaje, mientras una estación local de uso general gobierna la automatización. Esta combinación demuestra que la IA aplicada no está reservada a centros de datos ni a equipos de alto costo, sino que puede desarrollarse con medios accesibles, promoviendo un enfoque realista de experimentación técnica, formación, soberanía tecnológica e innovación sostenible con recursos propios.
No hay comentarios.:
Publicar un comentario