A pesar del optimismo extendido en torno al desarrollo de la inteligencia artificial (IA), el paradigma actual que sostiene a estos sistemas está basado en una comprensión incompleta y simplificada de la inteligencia humana. Desde Alan Turing, muchos pioneros asumieron que resolver problemas o pasar el famoso test de Turing bastaba para hablar de «inteligencia». Sin embargo, la inteligencia humana es mucho más que procesamiento de información: involucra intuición, emociones, contexto, sentido común y, sobre todo, la capacidad de generar hipótesis frente a lo desconocido. Estas dimensiones siguen siendo inaccesibles para la IA actual.
Uno de los principales errores es pensar que dominar tareas específicas equivale a poseer inteligencia general. Sistemas como AlphaGo o Google Translate impresionan por su eficiencia, pero son modelos estrechos, especializados en dominios muy concretos y carentes de comprensión contextual. Como lo demostró Bar-Hillel (1960), las máquinas carecen de sentido común básico, como comprender que una “caja no cabe en un bolígrafo”, evidencia de que la inteligencia humana está profundamente anclada en el mundo físico y social.
El mito de la superinteligencia, popularizado por autores como Kurzweil (2005) y Bostrom, tampoco tiene un sustento real. La idea de que una IA podría mejorarse a sí misma de forma recursiva presupone capacidades que aún no existen, en especial la capacidad abductiva, clave en la creatividad y la innovación. Como señaló Von Neumann (1948), una máquina no puede diseñar otra más inteligente sin información previa que ella misma no posee. En otras palabras, no puede inventar conocimientos que no tiene.
El test de Turing sigue siendo una meta insuperada en su esencia. Aunque algunos programas logran engañar a jueces humanos, como Eugene Goostman, no comprenden el lenguaje natural ni el contexto. No basta con imitar respuestas: comprender requiere conciencia de mundo, historia cultural y la ambigüedad del lenguaje, dimensiones que la IA no alcanza.
Esta fascinación tecnológica ha dado paso a lo que algunos autores llaman «tecnología kitsch»: una idealización ingenua de la IA que se proyecta en películas o discursos futuristas, como Ex Machina, ignorando que la conciencia de máquina sigue siendo una fantasía, no una posibilidad científica actual. Este tipo de relatos, más estéticos que científicos, distraen del verdadero desafío: comprender los procesos cognitivos reales del ser humano.
Uno de los obstáculos más serios para avanzar hacia una IA general es su fracaso en la inferencia abductiva. Como explicó Peirce (1903), la abducción es el tipo de razonamiento que usamos para generar hipótesis ante información incompleta, algo que los humanos hacen de manera natural y cotidiana. Por ejemplo, un médico puede diagnosticar una enfermedad rara con solo algunos síntomas poco comunes, mientras que la IA depende de grandes volúmenes de datos etiquetados y aún así comete errores ilógicos.
La IA actual se sostiene en deducción (reglas lógicas preprogramadas) e inducción (aprendizaje estadístico), pero ambas son insuficientes para simular el pensamiento humano completo. La deducción es rígida y limitada, y la inducción, aunque útil, no permite entender la causalidad ni generar creatividad auténtica. Como advierte Gary Marcus (2018), “el aprendizaje profundo es bueno para correlaciones, pero no para comprensión o razonamiento abstracto”.
Además, la supuesta inminencia de la “singularidad” es una ilusión construida sobre malentendidos conceptuales. No existe ningún indicio de que las máquinas puedan desarrollar conciencia o mejorar su propia arquitectura sin intervención humana. La creencia en una IA general ignora que lo más humano del pensamiento —la capacidad de suponer, dudar e imaginar— no se reduce a datos ni a velocidad de cómputo.
En conclusión, la IA no está cerca de igualar la inteligencia humana porque le falta lo esencial: la capacidad de abducir, de interpretar el mundo sin reglas preexistentes. Mientras no se comprenda cómo el cerebro humano construye hipótesis con base en contexto, experiencia y sentido común, la IA seguirá siendo una poderosa herramienta especializada, pero no una mente. Como señala Bengio, uno de los padres del aprendizaje profundo: “No tenemos ni idea de cuándo llegará la IA general”. Por ahora, conviene abandonar el mito y enfocarnos en resolver el misterio científico de la inteligencia humana.
Referencias bibliográficas
- Bar-Hillel, Y. (1960). The Present Status of Automatic Translation of Languages. Advances in Computers.
- Von Neumann, J. (1948). The General and Logical Theory of Automata. Cerebral Mechanisms in Behavior.
- Peirce, C.S. (1903). Abduction and Induction. Harvard Lectures on Pragmatism.
- Marcus, G. (2018). Deep Learning: A Critical Appraisal. arXiv.
- Kurzweil, R. (2005). The Singularity Is Near. Viking.
- Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Penguin.
¿Qué tan útil fue esta publicación?
¡Haz clic en una estrella para calificarla!
Calificación promedio 0 / 5. Votos: 0
¡Sin votos todavía! Sé el primero en calificar esta publicación.










