miércoles, 10 de diciembre de 2025

Ajuste fino de un modelo de lenguaje (SLM) de pequeña escala

Ajuste Fino de Gemma 270M con Datos Dolly-15k

Este proyecto culminó con éxito el entrenamiento de un modelo de lenguaje de pequeña escala para mejorar su capacidad de seguir instrucciones, utilizando un flujo de trabajo optimizado y recursos limitados de Google Colab.

Resultado (Hugging Face Hub)  /  Cuaderno de trabajo (Colab)

Visualización del proceso de fine-tuning del modelo Gemma.


Objetivo Principal

El objetivo fue realizar el Ajuste Fino de Instrucciones (Instruction Fine-Tuning) del modelo [2B-270M] (variante eficiente de Google) utilizando la técnica LoRA (Low-Rank Adaptation) sobre un conjunto de datos público de alta calidad para tareas conversacionales.


I. Fases y Logros Clave del Preprocesamiento

La fase más desafiante fue el preprocesamiento del dataset para adaptarlo al formato específico de chat requerido por el modelo Gemma.

1. Carga y Selección del Dataset

  • Dataset utilizado: databricks/databricks-dolly-15k. Más de 15000 registros únicos de pares de instrucción/respuesta.
  • Ajuste por limitaciones de memoria: El dataset fue reducido a un subconjunto viable para garantizar la estabilidad de la sesión.
  • Logro: Se confirmó la carga correcta del dataset inicial sin errores.

El dataset Databricks Dolly 15k es un corpus clave para el Ajuste Fino de Instrucciones (Instruction Fine-Tuning). Sus principales usos son:

  • Ajuste Fino de Instrucciones: Permite entrenar LLMs para exhibir un comportamiento conversacional.
  • Generación de Datos Sintéticos: Los prompts pueden usarse para generar un corpus de millones de ejemplos adicionales (método Self-Instruct).
  • Aumento de Datos (Data Augmentation): Mejora la solidez del modelo mediante la reformulación de instrucciones.

2. Conversión al Formato ChatML (Conversational Format)

El formato original de Dolly fue transformado al formato de conversación (ChatML) requerido por el framework de entrenamiento:

  • Función clave: convert_to_chatml.
  • Estructura creada: Nueva columna conversations con pares {"role": "user", "content": ...} y {"role": "assistant", "content": ...}.
  • Logro: Se resolvió el error inicial de KeyError alineando correctamente los nombres de las columnas.

3. Formateo y Optimización de Memoria

Esta etapa fue crítica para superar los fallos recurrentes de RAM:

  • Función clave: formatting_prompts_func.
  • Propósito: Usar el tokenizer de Gemma para aplicar la plantilla de chat (e.g., <start_of_turn>user\n...\n<end_of_turn>) a la columna conversations.
  • Técnicas de estabilidad aplicadas: Limpieza explícita de memoria, optimización del mapeo usando batched=True, y resolución de KeyError e IndexError.
  • Logro: Se generó la columna final text sin desbordar la memoria del sistema.

II. Logros del Entrenamiento y Despliegue

El entrenamiento se ejecutó utilizando el framework Unsloth para una optimización superior en el entorno de Google Colab.

1. Configuración de Entrenamiento

  • Método: Ajuste Fino de Instrucciones (SFT) con LoRA.
  • Clase utilizada: SFTTrainer (librería trl).
  • Optimización de memoria: Se configuró packing = True y se usó un per_device_train_batch_size bajo junto con gradient_accumulation_steps.
  • Logro: El modelo ejecutó el bucle completo de entrenamiento; la pérdida (*loss*) mostró una disminución progresiva, confirmando el aprendizaje efectivo.

2. Reto Final: Fallo en la Exportación

El proyecto encontró su principal limitación al intentar la **exportación a GGUF** y la **subida al Hugging Face Hub**.

  • Problema: La fusión de pesos (LoRA + modelo base) y la conversión a formato GGUF (Q8_0) agotaron la RAM del sistema Colab a pesar de las optimizaciones.
  • Estado final: El modelo afinado existe correctamente, pero no pudo ser exportado ni subido en formato GGUF directamente desde Colab.

3. Verificación de la Afinación

  • Resultado del modelo: El éxito del *fine-tuning* se verificó empíricamente al observar la adopción del estilo de respuesta del dataset Dolly.
  • El modelo afinado ahora responde a instrucciones complejas con formatos estructurados (listas, viñetas) y con un tono conversacional consistente, a diferencia del comportamiento del modelo base.

Ver o correr el modelo afinado en: Hugging Face


III. Conclusión y Próximos Pasos Recomendados

El proyecto fue un éxito desde el punto de vista del entrenamiento, demostrando la capacidad para manejar flujos de trabajo avanzados con SLM en entornos con recursos limitados.

  • Logro principal: Modelo Gemma 270M ajustado con éxito para el seguimiento de instrucciones usando el dataset **Dolly-15k**.
  • Recomendación de despliegue: Para asegurar la preservación del trabajo, el siguiente paso debe ser:
    1. Subir el modelo fusionado en formato estándar de Hugging Face (merged_16bit).
    2. Realizar posteriormente la conversión final a GGUF (Q8_0) de forma local en una máquina con mayor capacidad de memoria o en un servidor dedicado.

Propiedad Intelectual (indiscutible) de: RJCG

sábado, 6 de diciembre de 2025

Los tokens en la Inteligencia Artificial

En los modelos de Lenguaje Grande (LLM) como ChatGPT, LLaMA, Mistral, Qwen u Ollama, el concepto más importante no son las palabras, sino los tokens. Comprender qué son los tokens, cómo se calculan y cómo varían entre idiomas es clave para:

  • Diseñar mejores prompts.
  • Reducir costos en APIs comerciales.
  • Optimizar el rendimiento en modelos locales.
  • Evitar errores por desbordamiento de contexto.

Este artículo explica todo esto de forma clara y aplicada.


1. ¿Qué es un token?

Un token es una unidad mínima de texto que utiliza un modelo para procesar información. Un token no necesariamente es una palabra completa. Puede ser:

  • Una palabra completa
  • Parte de una palabra
  • Un signo de puntuación
  • Un espacio
  • Una sílaba

Por ejemplo, la frase:

El gato duerme plácidamente

Puede dividirse internamente en algo parecido a:

["El", " gato", " duer", "me", " pl", "áci", "da", "mente"]

Aunque para un humano son solo 4 palabras, para el modelo pueden ser 8 tokens o más.


2. Por qué los modelos usan tokens y no palabras

Los modelos de lenguaje utilizan técnicas de sub-palabras estadísticas (como BPE o SentencePiece), porque:

  • Permiten manejar cualquier idioma.
  • Detectan patrones frecuentes.
  • Reducen el tamaño del vocabulario.
  • Mejoran la generalización del modelo.

Esto explica por qué palabras con acentos, conjugaciones o poco uso suelen dividirse en varios tokens.


3. Cómo estimar el número de tokens en textos largos

Aunque el conteo exacto se hace con tokenizadores automáticos, se puede usar una estimación muy precisa para el trabajo diario.

Reglas prácticas

Tipo de texto Estimación
Inglés 1 token ≈ 0,75 palabras
Español 1 token ≈ 0,9 palabras
Texto técnico 1 token ≈ 0,6 palabras
Código 1 token ≈ 0,4 palabras
Desde caracteres tokens ≈ caracteres / 4

Fórmulas rápidas

Para español:

tokens ≈ palabras × 1,3

Para inglés:

tokens ≈ palabras × 1,1

Desde caracteres (muy confiable):

tokens ≈ caracteres / 4

4. Ejemplo real de cálculo

Supongamos un artículo de:

  • 1.200 palabras
  • 7.000 caracteres

Cálculo:

Por palabras: 1.200 × 1,1 ≈ 1.320 tokens
Por caracteres: 7.000 / 4 ≈ 1.750 tokens

Resultado realista:

Entre 1.400 y 1.700 tokens

5. Diferencias entre tokenización en español e inglés

Los modelos modernos están entrenados mayoritariamente en inglés, por lo que:

  • El inglés tokeniza mejor.
  • El español se fragmenta más.
  • Los acentos y conjugaciones aumentan el número de tokens.
  • El mismo mensaje cuesta más tokens en español.

Ejemplo comparativo simple

Español:

El gato duerme plácidamente

Tokens aproximados:

["El", " gato", " duer", "me", " pl", "áci", "da", "mente"]

Total: 8 tokens

Inglés:

The cat sleeps peacefully

Tokens:

["The", " cat", " sleeps", " peacefully"]

Total: 4 tokens


6. Ejemplo técnico comparativo

Español:

El microcontrolador ejecuta instrucciones en tiempo real

Tokens aproximados:

["El", " micro", "control", "ador", " ejecut", "a", " instruc", "ciones", " en", " tiempo", " real"]

Total: 11 tokens

Inglés:

The microcontroller executes real-time instructions

Tokens:

["The", " microcontroller", " executes", " real", "-", "time", " instructions"]

Total: 7 tokens


7. Impacto real de los tokens en costos, memoria y velocidad

En servicios comerciales de IA

  • Más tokens = mayor costo.
  • El español suele costar más que el inglés (por mayor fragmentación).
  • Prompts largos se facturan por miles de tokens.

En modelos locales (Ollama, LLaMA, etc.)

  • Más tokens = mayor consumo de RAM.
  • Más tokens = mayor latencia.
  • Más tokens = menos espacio disponible para el historial de conversación.

Ejemplo aproximado:

Tokens en prompt RAM usada Tiempo de respuesta
512 ≈ 1 GB Muy rápido
2.048 ≈ 2–3 GB Medio
8.000 ≈ 7–10 GB Lento

8. Buenas prácticas para optimizar el uso de tokens

Especialmente al trabajar con n8n, Ollama y automatizaciones locales:

  • Usar prompts cortos y precisos.
  • Evitar repeticiones innecesarias.
  • Resumir antes de reenviar texto al modelo.
  • Usar identificadores en lugar de textos largos.
  • Guardar contexto fuera del prompt cuando sea posible.

Ejemplo eficiente:

Contexto: Cliente solicita cita de cardiología

Ejemplo ineficiente:

El cliente ha realizado una solicitud detallada explicando que desea...

Conclusión

Los tokens son la verdadera moneda de cambio de la inteligencia artificial moderna. Quien domina los tokens:

  • Reduce costos.
  • Mejora la velocidad de respuesta.
  • Optimiza el uso de memoria.
  • Diseña mejores agentes y flujos de automatización.
  • Aprovecha al máximo sus modelos locales y en la nube.

Comprender los tokens no es opcional: es una habilidad técnica esencial en la era de la IA.

Qué es el Fine-Tuning

 El Concepto Fundamental

El fine-tuning (o afinación) no es crear un modelo de IA desde cero, sino ajustar los pesos de un modelo base que ya ha sido entrenado con datos masivos y generales.

  • Objetivo Principal: Mejorar el rendimiento del modelo en tareas específicas. Esto permite que modelos relativamente pequeños y bien afinados puedan superar a modelos mucho más grandes y genéricos (como los de GPT) en el contexto de un nicho particular.
  • La Ventaja Clave: La afinación es la puerta de entrada a la creación de modelos especializados que son más baratos de ejecutar y pueden ser desplegados de manera más eficiente que las grandes APIs comerciales.




La Oportunidad de Negocio y las Implicaciones Éticas

El fine-tuning no es solo una habilidad técnica, sino una oportunidad de mercado crucial.

Creación de una Ventaja Competitiva (Moat)

  • Se cita a la aceleradora Y Combinator, que busca activamente startups centradas en modelos afinados.
  • La mayoría de las startups de IA son fácilmente reemplazables, ya que dependen de la tecnología de OpenAI u otros gigantes.
  • Crear su propio modelo afinado le proporciona un "moat" (una ventaja competitiva o barrera de entrada) que no puede ser replicado con una simple llamada a una API pública.

Modelos Sin Censura y Despolarización

  • El fine-tuning es el método utilizado para crear modelos "sin censura".
  • Esto se vuelve cada vez más importante, ya que los modelos comerciales están sujetos a filtros de contenido y propaganda por parte de empresas y gobiernos.
  • Afinar su propio modelo le permite entrenarlo con sus propios intereses y valores, evitando los sesgos inherentes a los modelos predefinidos.

El Desafío de los Datos

  • El principal obstáculo en el proceso de afinación no es el código, sino la obtención de conjuntos de datos de alta calidad (datasets) que sirvan para entrenar el comportamiento deseado.

El Tutorial Práctico: Herramientas y Metodología

El video utiliza un workflow moderno y optimizado para hacer la afinación accesible y gratuita.

Herramientas Utilizadas

  1. Google Colab: Es un notebook basado en la nube que proporciona GPUs gratuitas (Tesla T4), esenciales para el entrenamiento.
  2. Unsloth: Una biblioteca de código abierto que acelera significativamente el proceso de fine-tuning y reduce el uso de la memoria de la GPU, permitiendo que modelos grandes se ejecuten en hardware gratuito.
  3. Modelo Base: Se elige el modelo GPT-OSS 20B, que es pequeño pero potente, ideal para esta demostración.

Nota:  ver el siguiente enlace

https://colab.research.google.com/drive/1XamvWYinY6FOSX9GLvnqSjjsNflxdhNc?usp=sharing

Proceso de Entrenamiento (Pasos Clave)

  • Optimización LoRA: Para evitar reentrenar miles de millones de parámetros, el proceso añade adaptadores LoRA (Low-Rank Adaptation). Esta técnica solo entrena una pequeña fracción de los pesos del modelo, logrando un entrenamiento rápido y eficiente en la GPU gratuita.
  • Preparación del Dataset: Se carga un dataset específico. En el ejemplo del video de referencia, se utiliza un dataset diseñado para convertir el LLM en un "agente" capaz de planificar, razonar y usar herramientas (comportamiento agentivo), similar a lo que podría usar OpenAI para sus propios agentes.
  • Entrenamiento: Se inicia el entrenamiento real utilizando la GPU, proceso que se completa en aproximadamente 10 a 15 minutos gracias a las optimizaciones de Unsloth.
  • Inferencia: Una vez que el modelo ha sido afinado, se realiza la inferencia (es decir, se chatea con el modelo) para observar cómo ha cambiado su comportamiento y si ahora responde según el dataset de entrenamiento.
  • Guardado: El modelo puede guardarse localmente (para máxima privacidad) o subirse a Hugging Face para su uso en aplicaciones web completas.

 

Nota: "MOA"

El término proviene de los fosos que rodeaban los castillos medievales. Estos fosos servían como una barrera defensiva que protegía el activo valioso (el castillo) de los atacantes. En el contexto empresarial, un moat es una ventaja competitiva duradera que hace que sea extremadamente difícil para otras empresas (competidores) robar cuota de mercado a una compañía establecida, permitiéndole generar altos rendimientos de capital a largo plazo.

 

Referencia: 

viernes, 5 de diciembre de 2025

Laboratorio local de IA

Laboratorio de Inteligencia Artificial

 

Un entorno funcional de inteligencia artificial completamente local, integrando n8n como motor de automatización y Ollama como servidor de modelos de lenguaje, distribuidos deliberadamente en dos equipos de características muy distintas: una máquina remota de generaciones anteriores y una estación local de uso cotidiano. Ollama corre en el equipo remoto, denominado Cubagua, una máquina fabricada en la generación de los Intel i3 de cuarta generación, con un Core i3-4150 a 3.50 GHz, 8 GB de memoria RAM, disco duro mecánico de 466 GB y gráficos integrados Intel HD 4400. Se trata de un computador que, en términos comerciales actuales, podría considerarse obsoleto, pero que en la práctica ha demostrado ser plenamente capaz de ejecutar modelos de lenguaje ligeros de forma estable dentro de un entorno de investigación.

El nodo de control y automatización, por su parte, se ejecuta en el equipo local, Nagasaki, bajo Ubuntu sobre WSL2 en Windows 11, equipado con un AMD Ryzen 5 3400G a 3.70 GHz y 12 GB de RAM. Esta máquina cumple la función de orquestador central, recibiendo eventos externos, coordinando los flujos de n8n y comunicándose directamente con el servidor Ollama a través de una red privada segura. La exposición al exterior se resolvió mediante Tailscale Funnel, permitiendo disponer de una URL pública con HTTPS válido sin abrir puertos ni depender de infraestructuras comerciales, habilitando así la integración directa con Telegram como interfaz de interacción.

El resultado de esta arquitectura es un micro-laboratorio local de inteligencia artificial distribuido, construido íntegramente con hardware preexistente, de distintas generaciones y sin soluciones empresariales dedicadas. Una máquina remota i3 de arquitectura antigua ejecuta modelos de lenguaje, mientras una estación local de uso general gobierna la automatización. Esta combinación demuestra que la IA aplicada no está reservada a centros de datos ni a equipos de alto costo, sino que puede desarrollarse con medios accesibles, promoviendo un enfoque realista de experimentación técnica, formación, soberanía tecnológica e innovación sostenible con recursos propios.

 

 

 

domingo, 30 de noviembre de 2025

WebUI para Ollama

📰 Mini WebUI para Ollama en WSL: una herramienta ligera para medir tiempos reales de respuesta en modelos locales

Ollama: es una plataforma para ejecutar modelos de inteligencia artificial de forma local, directamente en tu computadora, sin conexión a internet y sin depender de servicios en la nube. Permite descargar modelos como Llama, Gemma, Mistral o Phi y consultarlos mediante una API sencilla o desde la línea de comandos. Su principal ventaja es que ofrece privacidad total, velocidad y control completo sobre el funcionamiento de los modelos, aprovechando CPU o GPU según la configuración del sistema. Disponible en un repositorio de GitHub.



 He desarrollado una Mini WebUI para Ollama, una interfaz web extremadamente liviana que permite interactuar con modelos de lenguaje instalados en WSL (Ubuntu en Windows 10/11) sin depender de extensiones, frontends pesados ni aplicaciones de terceros. El objetivo principal es medir tiempos reales de respuesta, especialmente el tiempo hasta el primer token, sin interferencias del ecosistema Windows ni capas opacas que alteren la latencia del modelo.

🔍 ¿Por qué fue necesario construir esta interfaz?

Durante pruebas recientes con modelos locales instalados vía Ollama, surgió un comportamiento extraño: los tiempos de respuesta parecían variar de forma anómala y algunos modelos —especialmente al ser invocados desde consola— daban la sensación de estar siendo “interceptados” o procesados por otra capa, con respuestas que no coincidían exactamente con la salida nativa de Ollama.

Incluso se sospechó que alguna IA residente del sistema, como Gemini u otros componentes vinculados al entorno Windows, podía estar interfiriendo en la cadena de ejecución del CLI.

Aunque no hay evidencia definitiva, sí quedó claro que:

  • Windows puede reescribir, interceptar o envolver ciertos comandos.
  • Algunos motores de sugerencias del sistema pueden modificar o enriquecer inputs.
  • La consola nativa de Windows no siempre ofrece un canal totalmente “limpio”.

Por eso se tomó la decisión de sacar el procesamiento 100% fuera de Windows, usando:

  • Ollama ejecutándose exclusivamente en WSL.
  • Interacción vía API HTTP directa, sin pasar por el CLI de Windows.
  • Un frontend HTML propio, sin dependencias externas ni capas adicionales.

Con esto se garantiza que la conversación con los modelos ocurre de forma mucho más pura y controlada, sin intermediarios ni reinterpretaciones externas.


⚙️ ¿Qué hace exactamente la Mini WebUI?

La interfaz permite:

  • Seleccionar cualquiera de los modelos instalados en Ollama.
  • Ver información técnica del modelo:
    • Número de parámetros.
    • Tamaño en disco.
    • Nivel de cuantización (Q4, Q5, Q8, etc.).
    • Latencia promedio del primer token.
  • Enviar prompts con streaming inmediato de la respuesta.
  • Forzar respuestas cortas (menos de 10 palabras) o siempre en castellano.
  • Limpiar el historial de la conversación.
  • Detener la generación de texto en tiempo real.
  • Consultar un panel de ayuda con los pasos de instalación y uso en WSL.

Todo esto está implementado en un único archivo index.html, sin frameworks, sin backend adicional y sin librerías externas.


🧪 Pruebas limpias y métricas fiables

El propósito central de esta herramienta es poder comprobar:

  • Si un modelo responde más lento de lo esperado.
  • Si hay demoras atribuibles al sistema operativo o al entorno.
  • Cómo afecta la cuantización (Q4, Q5, Q8, etc.) a la latencia real.
  • Qué modelos son más eficientes en CPU o en configuraciones mixtas.
  • Si existen patrones sospechosos o interferencias externas en la ejecución.

Gracias a esta WebUI, ahora es posible observar de forma clara el tiempo exacto entre el envío del prompt y la llegada del primer token, una métrica que no se obtiene fácilmente usando únicamente la consola de Windows.


🌐 ¿Por qué no usar Chrome o Edge directamente?

Los navegadores como Chrome y Edge bloquean por CORS y Same-Origin Policy cualquier intento de usar fetch() desde un archivo local (por ejemplo, file://…) hacia un servidor HTTP como:

http://localhost:11434

que es precisamente donde corre la API de Ollama.

Para evitar ese bloqueo, la WebUI debe abrirse a través de un pequeño servidor local, por ejemplo con Python:

python3 -m http.server 8000

Luego, basta con entrar en:

http://localhost:8000

De este modo, el navegador trata tu HTML como una página servida desde un origen válido, y permite la comunicación con la API de Ollama sin restricciones.


🧭 Compatibilidad

  • Funciona en Windows + WSL (Ubuntu recomendado).
  • También puede ejecutarse en Linux nativo con Ollama.
  • Firefox puede abrir el HTML directamente (aunque el servidor Python sigue siendo recomendable).
  • Chrome y Edge requieren el mini-servidor HTTP para funcionar correctamente.

🔚 Conclusión

Esta Mini WebUI nace como una herramienta de verificación: un entorno controlado, limpio y sin intermediarios, ideal para medir con precisión cómo se comportan los modelos locales en Ollama bajo WSL.

El proyecto no solo ayuda a despejar dudas sobre posibles interferencias o capas invisibles (como las sospechas en torno a Gemini y otros servicios), sino que también ofrece un método rápido y reproducible para evaluar rendimiento, latencia y comportamiento técnico de cualquier modelo LLM disponible para Ollama.

En resumen, es una pieza más en el esfuerzo por entender qué sucede realmente “bajo el capó” cuando trabajamos con inteligencia artificial local desde entornos híbridos como Windows + WSL.

miércoles, 29 de octubre de 2025

San Antonio de la Eminencia, 60 años

 Conmemoración del 60° Aniversario del Castillo de San Antonio de la Eminencia

 Rommel Contreras, Discurso oficial. Octubre de 2025

Academia de GeoHistoria del Estado Sucre

 

Si algún día soñamos con ver este Castillo inscrito en la Lista del Patrimonio Mundial, el camino comienza con la investigación, la dedicación y el amor local.

Otras ciudades del mundo tienen sus fortalezas —como La Cabaña, en La Habana, San Felipe en Cartagena o El Morro, en San Juan—, pero ninguna posee el privilegio de custodiar la cuna del Gran Mariscal de Ayacucho.

Desde esta Eminencia se ve el mar, pero también la historia; desde aquí se domina la geografía y se convoca la memoria.

Andrés Bello dijo que la naturaleza es el alma visible de la patria; en Cumaná, esa alma está inscrita en piedra, sangre, sacrificio, sol y mar.

Debemos exponerla al mundo en tinta, papel y con el auxilio de las Nuevas Tecnologías.

Hace ya un par de décadas, cuando el querido presidente Hugo Chávez Frías convocó a los venezolanos de todas las edades y género a estudiar la historia de Venezuela, comprendí que también era necesario escribirla y divulgarla.

A pesar de que mis estudios formales pertenecen al ámbito de las ciencias físicas —a los números, no a las letras—, sabemos que el conocimiento de la historia también requiere de los beneficios del método científico.

Desde toda óptica, Cumaná es un oasis virgen para el estudio histórico y patrimonial, cuya memoria se remonta a mucho más de dos milenios. Fue eso lo que, hace cuarenta años, me trajo a compartir mi tiempo con el de todos, y acudir a toda convocación en el beneficio de la historia patria.

Nuestra historia —la indígena, la colonial y la republicana— aún yace dispersa entre libros, archivos, relatos, patrimonios inmateriales y bienes materiales, como lo es esta fortaleza en esta Eminencia y altura, que nos acompaña desde el último cuarto del siglo XVI.

Por eso, cuando en 2005 surgió en la mente inquieta del Dr. Ramón Badaracco, el Cronista de la Ciudad, la idea de crear una Academia para el estudio de la historia de Cumaná, un grupo de ciudadanos abrazamos su propuesta y le ayudamos a materializarla con un planteamiento crítico referido a una historia propia e insurgente.

Desde entonces, la Academia de GeoHistoria del Estado Sucre ha cultivado una cosecha fecunda, hoy consolidada bajo la presidencia del profesor Hernán Muñoz Villafuerte.

Hemos logrado avances significativos en la comprensión de nuestro pasado reciente, pero aún quedan muchas incógnitas de nuestras remotas raíces.

Antes de la existencia de la Academia, el curso y caprichos del río Cumaná —hoy Manzanares— estaba oculto bajo el velo del desconocimiento.

Hoy entendemos su recorrido milenario, sus desvíos entre los siglos XVII y XVIII y las correcciones realizadas para linealizar su cauce desde El Tamarindo hasta su boca actual, con suficiente evidencia, documental y cartográfica. Todo ello realizado por manos cumanesas y bajo su propia coordinación.

Ese conocimiento permitió identificar la ubicación de la antigua ciudad de Nueva Córdoba, la Cumaná marinera a orillas del mar, y precisar su traslado —antes de la navidad de 1582— al sitio donde hoy perdura el origen del Centro Histórico, rendido a los pies de esta Eminencia originalmente llamada de Santiago y San Antonio.

Sabemos quién ejecutó esa mudanza, y las causas y consecuencias de aquel trascendental desplazamiento urbano, y sospechamos que era un Marañón.

También hemos avanzado en el análisis de registros cartográficos y documentales sobre el patrimonio de Cumaná y sus alrededores.

Ello ha permitido despejar algunas incógnitas que teníamos sobre la ciudad, aunque otras permanecen esquivas y distantes a nuestra comprensión; especialmente las referidos a sus primeros habitantes, quienes poblaron estas tierras hace más de cinco siglos.

Los primeros pobladores se asentaron al borde de humedales propicios para la vida, moldeados por el río y consolidados por el mangle.

Restos y evidencias de esas culturas originarias permanecen dispersos en las serranías y el margen litoral.

Los movimientos tectónicos dieron forma al paisaje que hoy admiramos: la Serranía de Caigüire y sus estribaciones, entre ellas esta impecable Eminencia, que siempre ha sido respetada.

Los cumaneses de entonces reforzaron su entorno natural con una especial frontera verde-espinosa, destinada a proteger la fortaleza, que fue creciendo y modificándose con el tiempo. Su  primaria defensa desde el siglo XVI.

Desde aquí se domina todo el entorno: también fue un lugar preferido e ideal para observar las estrellas y tomar posiciones geográficas, cuando el mundo vivía el siglo de las grandes aventuras y navegaciones.

El sabio Alexander Humboldt estudió nuestro cielo, otros le antecedieron y sucedieron, muchas cartas de navegación y mapas de los siglos XVIII y XIX se referencian astronómicamente al Fuerte de San Antonio.

Estas serranías donde nos encontramos, conocidas geológicamente como el anticlinal de Mundo Nuevo, son formaciones cuaternarias, jóvenes, que guardan tesoros geológicos y paleontológicos, algunos por descubrir, potenciales recursos educativos y turísticos. Poseemos lo que otros envidiarían al respecto, un museo natural en toda la extensión de la palabra, donde los plegamientos y los fósiles cuaternarios compiten y hablan por sí mismos.

Tampoco debemos olvidar el mar: sus riquezas bióticas y abióticas que han sustentado nuestra dieta, economía y cultura durante siglos.

Mucho ignoramos todavía, pero debemos comenzar a descubrirnos: sin demora y con apuros.

Algunos mitos urbanos persisten, como el supuesto túnel entre el Fuerte y la Casa de Gobierno: una idea concebida, pero nunca materializada.

También se ha sobrevalorado el potencial militar del Castillo de San Antonio, restándole protagonismo al Fuerte de Santa María de la Cabeza, pieza clave en la defensa de la ciudad, hoy injustamente olvidado; es buen tiempo para recuperar ese patrimonio y también la Casa Fuerte al usufructo de la ciudad.

Eso no disminuye, sin embargo, la importancia simbólica y estratégica del Fuerte de San Antonio de la Eminencia, que durante siglos sirvió para intimidar a los enemigos de Cumaná. Desde cuando cuidaba junto con el Castillo de Santiago de Arroyo de Araya, una de las puertas del Imperio Español.

Durante la Independencia, junto con el Fuerte de Santa María de la Cabeza y otros ya desaparecidos (como el Reducto de San José o de la Candelaria y el Castillo Viejo), alternaron su control entre patriotas y realistas.

Años después, esta fortaleza, albergó prisionero al general José Antonio Páez, cuya partida al exilio estuvo acompañada por una multitud de cumaneses y dieciséis señoritas vestidas de blanco que lo escoltaron hasta el puerto.

Aquella despedida con gran manifestación de afecto cumanés marcó al Centauro, quien prometió regresar a Venezuela por Cumaná, y cumplió su palabra.

Investigando el Centro Histórico de Cumaná, miembros de la Academia, rescatamos de los archivos en España, Caracas y locales, las pruebas documentales que confirmaron la tesis del cronista Dr. Pedro Elías Marcano sobre el sitio exacto de la Casa Natal del Gran Mariscal de Ayacucho.

Ese lugar sagrado, a las faldas de esta misma Eminencia, entre la Basílica Menor de Santa Inés y donde hoy nos encontramos, allí fue el lugar donde doña María Manuela de Alcalá y Vicente de Sucre, recibieron y criaron al Gran Mariscal de Ayacucho, en la postrimería del siglo XVIII y el advenimiento de los tiempos revolucionarios de la Independencia.

Hoy sabemos con precisión matemática y astronómica la ubicación de esa casa.

La Academia cumanesa reunió los soportes científicos que permitieron quitar el velo con que la Academia Nacional de la Historia había relegado la morada del Gran Mariscal.

La reedificación impulsada por la Academia de GeoHistoria, hoy es un hecho culminado por el Gobierno Bolivariano del presidente Nicolás Maduro, bajo la gestión del almirante Gilberto Pinto Blanco. Así, no solo cumplimos el deseo del comandante Hugo Chávez Frías, también el anhelo de todo el pueblo cumanés, que por las guerras y descuidos había olvidado tan importante deber histórico.

Entonces, de pie ante este sólido patrimonio y mole de nuestra historia, que ha visto pasar casi todas nuestras vicisitudes, incluyendo las propias que han cambiado su morfología.

Este Castillo en su origen fue refugio contra piratas como lugar fuerte de la ciudad, pero también como defensa ante los ataques de los legítimos dueños de estas tierras; los mal llamados indígenas.

Su historia se remonta a 1572, cuando los naturales de la zona —en defensa de su tierra— dieron muerte a los alcaldes Juan Rengel y Hernán López de Pedroza: cuando la ciudad era marinera. Sucumbieron a flechazos en una guasábara cuando los indios se opusieron a los desmanes de la hueste colonizadora del capitán Diego Fernández de Serpa.

Aquello motivó al gobernador inmediato e interino de Serpa, Adriano de Padilla, a la erección de una fortificación precursora en el sitio más defendible del entorno, a media legua: la Eminencia de "Santiago y San Antonio". Es de esa obra que tenemos evidencias, de su mantenimiento y reparaciones.

Se construye un modesto rodete de paredes elevadas, con la técnica de la tapia pisada. Todavía, casi un siglo después, en la medianía del siglo XVII (1668), tan solo era una construcción endeble, redonda de barro y de piedra, pero que ya contaba con ocho piezas de artillería.

El gobernador Juan de Padilla y Guardiola (1680–1683) reformó el sistema defensivo, advierte la necesidad de tener para Cumaná un sistema eficaz de defensa. Organiza la reforma del nuevo San Antonio, siguiendo las directrices ya determinadas por el anterior gobernador Angulo y Sandoval, que consistían esencialmente en una tipología que había sido adoptada en España, proveniente de Italia, la forma cuadrangular con baluartes en las puntas, en sustitución de las torres. Doce años antes ya verificada en Cumaná con el fuerte de Santa María.

En febrero de 1682 el proyecto fue enviado a la Junta de Guerra, organismo este que en julio de ese año aprueba el proyecto y la demolición de la fortificación anterior.

El siguiente gobernador Francisco de Ribero y Galindo (1683–1686) transforma la obra debido al terremoto de 1684, dándole forma de estrella de cuatro puntas, la que aún perdura. Cambiando la tipología cuadrangular abaluartada original (quizás privó la premura y criterios económicos). Esta modificación tuvo la oposición del anterior gobernador y de los vecinos.

Su consolidación final hacia 1688 le dio a Cumaná su eje de defensa y símbolo de poder. Desde entonces, el Castillo de San Antonio de la Eminencia ha sido la piedra angular de nuestra identidad.

Su emplazamiento artillado transmitía dominio y control local al poblado dirimido. La consolidación como fortaleza de primer orden de la ciudad exigió dotación de foso, empalizada, artillería diversa, residencia de tropa, aljibe, capilla y casa de pólvora.

Su emplazamiento era excepcional ya que desde él se podía percibir el movimiento por la planicie litoral en todos los sentidos, por el río, que en ese entonces discurría hacia el norte entre las actuales calles Montes y Ayacucho y por el litoral norte. Pero su falla, estaban referidas a la defensa de los predios cercanos e inmediatos al poblado. En este sentido el fuerte de Santa María de la Cabeza siempre le superó.

Desde aquí se observan los ríos, el litoral, las montañas y la ciudad que creció a sus pies, mientras el San Antonio siguió recibiendo daños sísmicos y reparaciones. Es un punto de encuentro entre la historia nuestra y la propia.

Por eso, ante la solidez de esta mole de piedra que ha visto pasar siglos de luchas, es momento de tomar la pluma de oro que hace doscientos años nos regaló Antonio José de Sucre desde la lejana Bolivia —la misma que los huérfanos de Cochabamba le ofrecieron en 1825 junto con la guirnalda dorada regalada por la municipalidad— y cumplir su deseo: el de escribir con ella la historia de esta noble ciudad de Cumaná y narrar los sacrificios de su pueblo en la búsqueda de la libertad.

A pesar de los acontecimientos que se suceden allá donde la hija predilecta del Libertador y del Gran Mariscal de Ayacucho, en el pleno del bicentenario de su creación, sintámonos orgullosos de que fue un cumanés quien impulsó su existencia, y la enrumbó libre a los ojos del mundo.

Libertad que los Orientales obtuvimos por nuestros propios medios, nuestras campañas y nuestros propios héroes. Libertad que hoy es amenazada por un contingente naval que los enemigos de siempre —el imperialismo— asoma en nuestros mares con pretensión de intimidarnos. Olvidando que fue un cumanés:

El joven Antonio José de Sucre, el hijo de una familia y ciudad revolucionaria quien corrió sin detenerse, desde lo alto de esta Eminencia de San Antonio hasta la cúspide del Potosí en el altiplano andino, rompiendo a su paso las cadenas que ataban los pueblos, liberándolos a sus propias culturas y costumbres, dándoles no solo la Libertad, sino también la educación para entenderla y disfrutarla.

Escribamos con la pluma dorada de Sucre, desde su Casa Natal, los detalles de su gesta y démosla a conocer al mundo, para que todos sepan lo que hizo un cumanés… y lo que aún puede volver a realizar.

Gracias, por reflexionar al respecto, y considerar entre todos, lo que tenemos pendiente, para remediar las ignorancias que nos atormentan, respecto a Cumaná y a sus hijos, principalmente las referidas al Gran Mariscal de Ayacucho, a su pluma y guirnalda y a la morada de su espíritu en su Casa Natal.




lunes, 22 de septiembre de 2025

El Oráculo de Cubicoa

El Oráculo de 𝑪𝒖𝒃𝒊𝒄𝒐𝒂 es un relato conceptual creado para explicar los fundamentos de la mecánica cuántica y de los qubits a través de una metáfora.

El texto parte de la idea de que la materia no es sólida en esencia, sino estructuras llenas de vacío gobernadas por campos y ondas. En este escenario se presenta 𝑪𝒖𝒃𝒊𝒄𝒐𝒂, un espacio simbólico que representa el nivel microscópico de la realidad, donde aparecen los cubitos (qubits).

Los cubitos ilustran cómo funciona un qubit real: pueden existir en superposición de estados, colapsan al ser medidos y son extremadamente sensibles al entorno. De manera natural existen estados cuánticos, pero son inútiles para la computación porque son incontrolables. Solo en condiciones experimentales muy específicas (superconductores, trampas de iones, fotones guiados, defectos en cristales) los qubits se vuelven útiles y manipulables.

El texto también explica la fragilidad del mundo cuántico: el ruido, la decoherencia y la entropía limitan la capacidad de mantener la coherencia cuántica, que es el recurso clave para el cómputo cuántico.

El 𝙌𝙪𝙗𝙞𝙩 𝙈𝙖𝙚𝙨𝙩𝙧𝙤 (⸎): es una metáfora organizadora, un símbolo de las leyes universales que gobiernan lo cuántico y que los humanos (𝙡𝙤𝙨 𝙤𝙧𝙜á𝙣𝙞𝙘𝙤𝙨) intentan comprender y aprovechar. No es un dios religioso, sino una representación del orden profundo que rige la realidad microscópica.

martes, 2 de septiembre de 2025

Azar clásico vs. cuántico

La Unesco declaró este año 2025 como el año de la Ciencia y Tecnología Cuánticas (AIQ). Y hay que adentrarse en ese universo mágico y maravilloso 🧐

1. El lenguaje de los qubits: amplitudes y fases

En mecánica cuántica, los estados no se representan con números reales, sino con números complejos.

El estado más general de un qubit se expresa así:

|ψ⟩ = α|0⟩ + β|1⟩

donde:

  • α y β son números complejos.

  • |α|² + |β|² = 1 garantiza la normalización de la probabilidad.

La interpretación es la siguiente:

  • |α|² = probabilidad de obtener el resultado 0 al medir.

  • |β|² = probabilidad de obtener el resultado 1 al medir.

  • La fase relativa entre α y β no cambia las probabilidades de un solo resultado, pero sí determina cómo el qubit puede interferir consigo mismo al evolucionar en el tiempo o al pasar por interferómetros.

En términos sencillos: la amplitud determina “cuánto” de cada posibilidad hay en juego, y la fase determina “cómo esas posibilidades se combinan” para producir efectos observables como la interferencia.


2. Azar clásico: incertidumbre de condiciones

Un ejemplo clásico es lanzar una moneda al aire.
  • El resultado final (cara o cruz) está determinado en cada instante por las condiciones iniciales (velocidad, ángulo, densidad del aire, rebotes).

  • El 50-50 que atribuimos a la moneda justa no es una indeterminación real, sino nuestra ignorancia sobre esas condiciones microscópicas.

Lo mismo ocurre si usamos un dado electrónico o un generador pseudoaleatorio en una computadora:

  • La “aleatoriedad” se basa en procesos deterministas, como secuencias de bits generadas por un algoritmo.

  • Aunque los números parecen azarosos, en realidad están acotados por la frecuencia de reloj del procesador (GHz).

  • Se trata de un azar epistemológico: depende de lo que no sabemos.

👉 En el mundo clásico, todo está definido aunque no lo sepamos.


3. ⚛️ Azar cuántico: indeterminación fundamental

Un qubit en superposición está descrito por:

|ψ⟩ = α|0⟩ + β|1⟩

y antes de medir no se encuentra en 0 ni en 1, sino en una superposición coherente de ambos.

Cuando se mide:

  • Con probabilidad |α|² se obtiene 0.

  • Con probabilidad |β|² se obtiene 1.

La diferencia respecto al mundo clásico es crucial:

  • No existe un “estado oculto” predefinido esperando a ser revelado.

  • El 50-50 en un qubit no refleja ignorancia, sino una indeterminación ontológica: la realidad misma no está definida hasta el acto de medición.

Si no sabemos cómo fue preparado el qubit, lo representamos con un estado mixto máximo, usando la matriz densidad:

ρ = ½I = ½|0⟩⟨0| + ½|1⟩⟨1|

donde:

  • ρ (rho) = matriz densidad del sistema.

  • I = identidad = |0⟩⟨0| + |1⟩⟨1|.

  • ½I = el estado mixto máximo: igual probabilidad de 0 y 1, sin coherencia entre ellos.

En forma de matriz:

ρ = ⎡0.5   0  ⎤
      ⎣ 0   0.5 ⎦

👉 Esto representa una moneda cuántica justa, pero no por ignorancia, sino porque la realidad cuántica no permite más descripción que esta.


4. Lo indistinguible a primera vista

Si un observador recibe solo la secuencia de resultados (0, 1, 0, 1…), no puede distinguir si viene de:

  • Una moneda clásica justa.

  • Un qubit en estado mixto máximo.

En ambos casos el histograma de resultados tenderá a 50% ceros y 50% unos.

Esto significa que en términos puramente probabilísticos, clásico y cuántico son indistinguibles.


5. Lo que los separa en el fondo

La diferencia no está en la secuencia de resultados, sino en tres aspectos:

  1. Naturaleza del azar:

    • Clásico = determinista en el fondo, probabilístico solo por ignorancia.

    • Cuántico = indeterminación fundamental, sin estado oculto.

  2. Correlaciones posibles:

    • En lo clásico, las correlaciones siguen las leyes de probabilidad estándar.

    • En lo cuántico, los estados entrelazados producen correlaciones imposibles de reproducir clásicamente (violación de desigualdades de Bell).

  3. Evolución antes de medir:

    • En lo clásico, no hay “superposición” que manipular.

    • En lo cuántico, antes de medir puedes aplicar operadores unitarios que rotan y transforman la superposición de amplitudes y fases.


6. Manipular sin colapsar: operadores unitarios

Aquí surge la aparente paradoja: “si la mínima interacción colapsa al qubit, ¿cómo podemos manipularlo antes de medir?”

La clave está en distinguir dos tipos de interacción:

  • Evolución unitaria (coherente):

    • Aplicar una puerta cuántica (Hadamard, Pauli-X, Z, etc.) hace rotar el estado en la esfera de Bloch.

    • El qubit cambia de amplitud y fase, pero sigue siendo un estado puro, sin colapso.

    • No se extrae información.

  • Medición (irreversible):

    • Aplicar un operador de proyección colapsa el qubit en |0⟩ o |1⟩.

    • Es un proceso no unitario y destruye la superposición.

    • Aquí sí se extrae información.

👉 Operar no es lo mismo que medir. Mientras no extraigas información, el qubit evoluciona de manera coherente y reversible.

Analogía:

  • Una ola de agua que empujas o canalizas sigue siendo ola → evolución unitaria.

  • Congelar el agua para verla “detenida” destruye la ola → medición.


7. Estado puro vs estado mixto

  • Estado puro: |ψ⟩ = α|0⟩ + β|1⟩.
    Se describe por un solo vector. Coherencia total.

  • Estado mixto: ρ = Σ pi |ψi⟩⟨ψi|.
    Es una combinación estadística de estados. Coherencia destruida.

Aplicar un operador unitario sobre un estado puro:

|ψ'⟩ = U|ψ⟩

sigue produciendo un estado puro.

  • Cambian α y β, pero sigue siendo una superposición coherente.

  • La pureza se pierde solo si hay medición o decoherencia con el entorno.

👉 Una puerta cuántica es como rotar una flecha en la esfera de Bloch. Un estado mixto, en cambio, es como una nube de flechas en todas direcciones.



8. Diferencia en la velocidad de los experimentos

Aunque las secuencias de resultados 0/1 sean indistinguibles, hay otra diferencia clara: la velocidad de desarrollo.

  • Clásico:

    • Lanzar monedas → unos pocos resultados por segundo.

    • Simular con un dado electrónico → limitado por la electrónica y su frecuencia de reloj (GHz).

    • Siempre dentro de un horizonte tecnológico finito.

  • Cuántico:

    • Qubits en iones, electrones o fotones se preparan y miden en escalas de nanosegundos o microsegundos.

    • Los generadores cuánticos de números aleatorios (QRNGs) producen millones o miles de millones de bits por segundo.

    • La velocidad aquí está dictada por la propia física cuántica, mucho más veloz que cualquier mecanismo macroscópico clásico.


9. Conclusión

  • Si solo miras las secuencias de resultados, azar clásico y cuántico parecen idénticos: 50-50.

  • Pero la diferencia fundamental es doble:

    1. En lo clásico, el azar es ignorancia sobre un estado definido; en lo cuántico, el azar es indeterminación fundamental.

    2. En lo clásico, el límite de velocidad es macroscópico y finito; en lo cuántico, la escala es microscópica y permite tasas extremadamente altas.

    3. Aunque seduce la idea de que la consciencia cause el colapso de la función de onda, la física contemporánea prefiere explicaciones menos antropocéntricas, como la decoherencia, que describe cómo el entorno borra la ambigüedad sin necesidad de un testigo.

En resumen:

  • El azar clásico es determinista disfrazado.

  • El azar cuántico es genuinamente indeterminado y explotable a gran velocidad.

Páginas

Entrada destacada

Ajuste fino de un modelo de lenguaje (SLM) de pequeña escala

Ajuste Fino de Gemma 270M con Datos Dolly-15k Este proyecto culminó con éxito el entrenamiento de un modelo de lenguaje de peq...

Entradas populares

Visitas: