Convolución, Estadística y el legado de Asimov
Nosotros, que trabajamos en inteligencia artificial y su aplicación práctica en proyectos reales, a menudo nos vemos absorbidos por la necesidad, la inmediatez de lograr resultados tangibles, nos cent
Nosotros, que trabajamos en inteligencia artificial y su aplicación práctica en proyectos reales, a menudo nos vemos absorbidos por la necesidad, la inmediatez de lograr resultados tangibles, nos centramos en implementar modelos, optimizar recursos, entrenar redes neuronales y cumplir con plazos muy ajustados. Sin embargo, a veces olvidamos —o al menos relegamos a un segundo plano— los orígenes profundos de esta tecnología, la línea de pensamiento que la sostiene y los principios que nos llevaron a imaginarla, y materializarla.
En una charla "de café" con mi amigo Raúl Ballester-Nortes, de People Art Factory, reflexionamos sobre esa desconexión. Él compartía su visión creativa del pasado, presente y futuro, y la manera en que la inteligencia artificial, transformadora sin duda, ha llegado a universalizarse desconectado a la sociedad de los conceptos que la han hecho posible. A partir de ahí, hilamos una conversación que nos llevó a examinar los fundamentos matemáticos, y las proyecciones casi poéticas que algunos autores clásicos plantearon.
Algunos la describen - sí, a la IA - como un conjunto de algoritmos capaces de aprender de datos, otros se centran en la aparición de robots o en las redes neuronales , más o menos densas y profundas. Sin embargo, la IA se compone, en palabras de Raúl, de fundamentos matemáticos que a menudo pasan desapercibidos. Entre ellos destacan dos vocablos que explican gran parte de su funcionamiento: convolución y estadística.
Los antiguos pitagóricos defendían la armonía universal a través de proporciones y números. Sus “Versos Áureos” enfatizaban la importancia de la moderación y del conocimiento racional. Esa visión filosófica encierra un paralelismo con la IA; la detección de patrones en la realidad. La idea de que todo fenómeno pueda descomponerse y analizarse mediante cantidades numéricas ha guiado la evolución tecnológica, desde los primeros mecanismos de cálculo hasta los sofisticados sistemas actuales.
En pleno siglo XX, Isaac Asimov, imaginó un futuro donde autómatas y humanos cooperan, impulsados por una lógica humanista y unas directrices éticas claras. Asimov ofrecía una panorámica de convivencia armónica, algo que conecta con el espíritu pitagórico. El autor consideraba que los avances científicos necesitarían salvaguardas morales, aunque desconocía el impacto que tendrían herramientas como la estadística avanzada y la convolución en la Inteligencia Artificial, pilares de la informática moderna que iban a emerger con fuerza en las décadas siguientes.
La convolución procede de la teoría de señales y del análisis matemático clásico. Permite combinar dos funciones para resaltar patrones que, de otro modo, permanecerían ocultos. Este enfoque llegó a la IA a través de las redes neuronales convolucionales, un método ampliamente utilizado para el reconocimiento de imágenes y la clasificación de objetos. El proceso recuerda la premisa pitagórica de observar la realidad en busca de relaciones subyacentes, solo que aquí el “filtro” es un kernel que recorre matrices de píxeles, ondas de sonido o textos digitalizados.
Estos "convolucionadores" automáticos extrajeron su fuerza de la capacidad para reconocer estructuras repetitivas de forma automática. En lugar de diseñar rasgos manualmente, estos modelos se nutren de la convolución para capturar contornos, texturas y niveles de abstracción que llevan a resultados extraordinarios en clasificación, segmentación y detección de objetos.
La estadística se sitúa en el núcleo de cualquier proceso de aprendizaje automático. Sus fundamentos permiten inferir propiedades de un conjunto de datos y tomar decisiones basadas en probabilidades. Cada vez que se entrena un modelo, la estadística ayuda a estimar parámetros óptimos, a medir la incertidumbre y a calibrar la fiabilidad de las predicciones.
La relevancia de la estadística no se limita al aprendizaje profundo. Muchos métodos tradicionales, como la regresión lineal o los árboles de decisión, se basan en pruebas de significación, estimaciones de verosimilitud y validaciones cruzadas. Las redes neuronales convolucionales también se apoyan en técnicas de regularización estadística y análisis de pérdidas para ajustarse a los datos y no caer en sobreentrenamiento. Entender la estadística es entender cómo se miden el éxito y el error en la Inteligencia Artificial.
En la práctica, un gran volumen de datos se almacena y transmite a través de algoritmos de compresión como el de Huffman o el formato ZIP, que ahorran espacio y facilitan la manipulación de la información. Estos recursos resultan vitales para que los modelos de IA, sobre todo los basados en aprendizaje profundo, puedan procesar grandes cantidades de elementos sin consumir un ancho de banda inasumible. La compactación de la información y la mejora del rendimiento conducen a una proliferación de sistemas que operan en la nube y en dispositivos móviles de poca potencia.
La IA no se queda únicamente en las técnicas clásicas. Se está abriendo hacia la computación cuántica, que aprovecha qubits y propiedades como la superposición y el entrelazamiento para realizar operaciones imposibles de llevar a cabo con la computación convencional. Se especula que, combinada con métodos de aprendizaje estadístico, la computación cuántica multiplicará la velocidad de entrenamiento y será capaz de abordar problemas con niveles de complejidad desorbitados. Preskill describe esta etapa como la “era NISQ”, en la que la potencia cuántica comienza a integrarse en prototipos de uso real.
Con la llegada de estas tecnologías, el valor de la estadística aumentará, ya que se necesitarán nuevos enfoques para interpretar resultados, verificar algoritmos y controlar errores que surgen de la naturaleza cuántica del hardware. Del mismo modo, la convolución podría adaptarse a circuitos cuánticos donde la operación básica se entienda en términos de puertas y estados en superposición.
Repasar los orígenes pitagóricos, matemáticos en general, y evocar la visión romántica de Asimov supone un gesto de humildad. Si la IA va a integrarse en cada vez más áreas de actividad —desde la medicina al arte, pasando por la logística y las telecomunicaciones—, la comprensión de sus fundamentos debe acompañarse de un criterio moral que evite la deshumanización. Porque, recordemos que no existe en el mundo real nada parecido a las leyes de la robótica, y la IA puede llegar a ser, sin el abrigo de la filosofía, tan fría como una ecuación perfectamente balanceada.
Aquí van unas cuantas referencias que pueden venirte de perlas si quieres curiosear más el tema, y pasar un buen rato aprendiendo:
- “I, Robot”, de Isaac Asimov. Si quieres explorar la idea de robots “legales” y la obsesión de Asimov por la convivencia pacífica entre humanos y máquinas, este libro es un clásico indispensable.
- “Deep Learning”, de Ian Goodfellow, Yoshua Bengio y Aaron Courville (2016). Un tocho (pero de los buenos) con conceptos básicos de redes neuronales hasta ejemplos de lo más futurista. Para cuando quieras ponerte en plan empollón de la IA.
- “A History of Greek Philosophy: Volume 1”, de W.K.C. Guthrie (1987). Ideal para remontarte a la Grecia antigua y pillar el rollo pitagórico. Nada mejor que entender la raíz filosófica de tanta tecno-locura.
- “A Method for the Construction of Minimum-Redundancy Codes”, de D.A. Huffman (1952). El artículo pionero del famoso algoritmo de Huffman. Está en inglés y es viejuno, pero si te van las bases de la compresión de datos, te lo vas a comer con patatas.
- “Gradient-Based Learning Applied to Document Recognition”, de Yann LeCun y otros (1998). El germen de las CNN. Si quieres ver cómo empezó todo el lío de que las máquinas lean y reconozcan caracteres, este artículo es como una máquina del tiempo.
- “Quantum Computing in the NISQ era and beyond”, de John Preskill (2018). Cortito y al pie sobre la computación cuántica. Te explica por qué estamos en esa fase “NISQ” y lo que podría venir después.
- “Artificial Intelligence: A Modern Approach”, de Stuart Russell & Peter Norvig (3ª ed., 2010). La mega-biblia de la IA. Toca todos los palos habidos y por haber, así que es un referente para quienes quieren pasar de novatos a futuros gurús.

Abel Ramos
CEO de Xappiens y un apasionado de la transformación digital y la inteligencia artificial. Mi objetivo es demostrar que la tecnología no es solo un conjunto de herramientas, sino un catalizador para mejorar procesos, impulsar negocios y, sobre todo, empoderar a las personas. Mi experiencia profesional tiene sus raíces en el sector industrial, donde aprendí a navegar en entornos complejos y exigentes. Este bagaje me ha permitido comprender las necesidades reales de las empresas, identificar oportunidades estratégicas y conectar esas demandas con soluciones tecnológicas efectivas. No me conformo con implementar tecnología; mi propósito es ayudar a las organizaciones a adaptarse, prosperar y construir culturas más resilientes. Bajo mi marca personal, #nosoloIA, comparto reflexiones y proyectos que buscan humanizar la inteligencia artificial y hacerla accesible para todos. Creo firmemente en un uso ético de la tecnología, donde el foco esté en su capacidad para transformar y no reemplazar. A través de esta iniciativa, trato de mostrar cómo la IA puede ser una herramienta poderosa, siempre que se combine con una visión centrada en las personas. En Xappiens lidero un equipo comprometido con llevar la digitalización a otro nivel, construyendo soluciones a medida que realmente impactan en los negocios. Creo en la innovación, pero también en la reflexión. La tecnología debe ser una aliada estratégica, no un fin en sí misma.
No comments yet. Inicie sesión para iniciar una nueva discusión Empezar una nueva conversación