Sé que ando un poco monotema últimamente, no lo puedo evitar. Comportamiento humano, inteligencia humana, y sobre todo inteligencia artificial… pero es que no solo me apasionan estas cosas, sino que además están muy de actualidad y no dejan de aparecer nuevos avances casi a diario. Y el hype de que la AGI se acerca parece cada vez mayor.

Desde que aparecieron los primeros modelos del lenguaje, pero sobre todo con los últimos avances, no he dejado de preguntarme si todo esto de la Inteligencia Artificial es de verdad o no comparable a la inteligencia humana. A día de hoy sigo creyendo que no. Aunque algunas IAs ya nos superen en capacidades cognitivas concretas. Pero esto no es nada nuevo. Ya lo hicieron otras tecnologías en el pasado y es algo que, a medida que avance la tecnología, seguirá pasando.

Cómo siempre, es posible que al principio vaya lanzando ideas y pivotando entre diferentes cosas que a priori puedan parecer inconexas, pero espero poder darle forma y hacer que todo encaje al final. Es un tema complejo que daría para varias publicaciones así que no prometo nada. ¡Al lío!

Por mucho que todo esto de la IA parezca algo super complicado, al final “solo” estamos trabajando con redes neuronales que, vistas de cerca, son sorprendentemente simples. Cada neurona de la red tiene la misma función de activación, y las redes son estructuras repetitivas que operan bajo las mismas reglas. Una red única. Todos a una.

Y aunque estamos consiguiendo optimizar estos modelos con algunos algoritmos matemáticos (con resultados impresionantes, eso es innegable), hay un patrón que se repite: estos éxitos se concentran en áreas altamente “matematizables”. El lenguaje, por ejemplo, que aunque parezca algo muy humano y complejo, tiene una estructura lógica que lo hace ideal para ser procesado por máquinas. Lo mismo ocurre con la programación, que no deja de ser un lenguaje extremadamente estructurado y predecible. También ocurre con la generación de imágenes y de música. Y con las matemáticas en sí mismas, claro. Y es en estas áreas dónde se están consiguiendo los mejores resultados.


Abro un pequeño paréntesis para intentar explicar esto un poquito mejor. Y es que a priori, al menos para mí, parece lógico pensar que si utilizamos redes neuronales artificiales (basadas en cálculos matemáticos) con algoritmos de optimización de una función de pérdida (descenso del gradiente) y otros algoritmos, cuanto más “matematizable” sea algo, mejor funcionará el entrenamiento de un modelo de IA en ese área.

Pero esto me genera la siguiente duda/pregunta, ¿es la inteligencia general “matematizable”?. Yo creo que algunas capacidades cognitivas si lo son. Otras, quizá no tanto. Y por tanto la inteligencia general, entendida como la capacidad de orquestar todas estas capacidades cognitivas, tampoco.

Cuando intento reflexionar sobre estos temas no puedo evitar pensar en la diferencia entre emociones y sentimientos que hace Antonio Damasio. Mientras que las emociones son respuestas automáticas y biológicas que ocurren en el cuerpo activadas por estímulos externos o internos, los sentimientos son la interpretación consciente y subjetiva de las emociones que experimentamos. Y esto es relativo. Y lo relativo es difícil de matematizar.

Si vas dando un paseo por la selva y te encuentras un león, aunque la emoción generada sea similar para diferentes individuos, los sentimientos no tienen por qué serlo. Una persona normal sentiría miedo, mientras que un explorador quizá sienta euforia ante un evento de estas características. Es decir, que los sentimientos son dependientes del contexto, y este, en mi opinión, es demasiado complejo para matematizarse. Al menos con el conocimiento que disponemos a día de hoy.

Y este es el motivo que me hace pensar que todavía estamos lejos de poder modelar ciertas partes de nuestra inteligencia. Creo que era importante dejar esto claro para explicar mi punto de vista. Sigamos.


Sin embargo, si comparamos estas redes neuronales artificiales con la arquitectura del neocórtex humano, la diferencia es abismal. En el libro “Mil cerebros”, Jeff Hawkins describe cómo el neocórtex no es una malla uniforme de neuronas iguales, sino una estructura compleja formada por columnas corticales. Estas columnas son unidades funcionales que se especializan en tareas concretas, como el reconocimiento de patrones o la localización en el espacio.

En cierto modo, podría decirse que nuestro cerebro es una red de redes, donde cada subred tiene su propio propósito y colabora con el resto para crear una inteligencia general, fluida y flexible. Y aunque todavía no conocemos con detalle el funcionamiento real de nuestros cerebros, lo que sí parece claro es que no es tan sencillo como una red de neuronas con una única función de activación y con unas cuantas conexiones ponderadas por pesos.

Por otro lado, esta especialización del cerebro de los humanos también va acompañada de un proceso fascinante: la poda neuronal. Al nacer, los humanos tienen más neuronas, y menos conexiones neuronales que las que llegarán a desarrollar en la madurez. A medida que crecemos y experimentamos el mundo, las conexiones entre neuronas se multiplican y fortalecen en respuesta a nuestras vivencias.

Sin embargo, aquellas neuronas que no logran integrarse de manera efectiva en este entramado terminan desapareciendo. Este proceso permite optimizar la red, eliminando lo que no ha sido funcional y reforzando las uniones que sí lo son, afinando el sistema de una manera que las redes neuronales artificiales actuales ni siquiera sueñan con replicar.

Es interesante pensar que parte de nuestra inteligencia no se construye añadiendo más elementos, sino quitando los que sobran. La poda neuronal es como esculpir una estatua: el bloque de mármol inicial tiene mucho potencial, pero es el acto de eliminar lo innecesario (y potenciar lo relevante) lo que revela la obra final. En las redes neuronales de la IA, en cambio, la tendencia (al menos hasta la fecha) ha sido la opuesta: crear modelos cada vez más grandes, con más parámetros y más datos, confiando en que el tamaño resolverá las limitaciones.

Creo que aquí estamos escondiendo el sesgo de simplificación debajo de la alfombra esperando que emerjan ciertas propiedades con el escalado y, aunque quizás me equivoque, habría que resolver primero el problema de la complejidad, Nuestro cerebro, y por tanto nuestra inteligencia, es algo mucho más complejo que las redes neuronales artificiales actuales.

Donde quiero llegar con todo esto es que, aunque estos modelos sean impresionantes, carecen de la eficiencia y adaptabilidad que caracterizan a nuestro cerebro. Mientras que nosotros podemos aprender algo nuevo ajustando unas pocas conexiones, las redes actuales necesitan reentrenarse por completo ante cualquier cambio significativo. Es como si, para corregir un error en una frase de un libro tuvieran que reescribir todo el libro desde cero. O para aprender sobre una nueva temática tuviéramos que leer, no solo 3 o 4 libros al respecto, sino además todos los anteriores. Otra vez. Y así con cada nuevo aprendizaje que queramos añadir.

Esta diferencia fundamental pone de manifiesto cómo la inteligencia humana y la artificial operan en niveles completamente distintos. Nuestro cerebro, con su capacidad para integrar especializaciones y adaptarse continuamente, sigue siendo una obra maestra de la evolución. Y aunque las redes neuronales sean una inspiración fascinante, todavía tienen mucho que aprender de las estrategias de evolución que nos han llevado a construir sistemas cognitivos tan complejos y adaptativos como el cerebro humano.

Y es que esta estrategia de evolución no es algo aislado. Fíjate por ejemplo en la evolución de organismos unicelulares a pluricelulares, y de ahí a órganos especializados que trabajan de forma coordinada para, al final, llegar a lo que somos. Un gran sistema de sistemas, todos muy complejos, con mucha especialización y una orquestación increíblemente eficiente.

Este salto no fue solo un cambio en complejidad, sino en eficiencia y adaptabilidad. Cada célula, cada tejido, cada sistema desempeña un rol único que contribuye al funcionamiento del conjunto. Es una lección que podría inspirar a las arquitecturas de IA: no se trata solo de más capacidad, sino de una organización más inteligente y colaborativa.

Hace apenas unas semanas se publicó un avance significativo en el benchmark ARC AGI, con el modelo o3 de OpenAI que logró una puntuación altísima. Sin duda, es un hito técnico impresionante, pero ¿realmente nos acerca tanto a la tan esperada AGI? Lo dudo.

Aunque este tipo de tests, como el reconocimiento de patrones en figuras y completar series, tienen un cierto parecido con los test de IQ que usamos en humanos. Pero hay una diferencia clave: en humanos, esos tests han demostrado correlacionar bastante bien las diferentes capacidades cognitivas con la inteligencia general. No podemos afirmar lo mismo de los resultados en los benchmarks de IA, simplemente porque no tenemos estudios que demuestren una correlación similar.

Además, hay otro detalle importante: en los test de IQ en humanos (al menos en algunos), se ha tenido en cuenta el tiempo disponible para su resolución como parte del proceso de evaluación. Sin esa variable las puntuaciones no tendrían sentido. Tienes 20 minutos para responder a 45 preguntas (por ejemplo), y la puntuación del test dependerá de cuántas respondas además de si son o no correctas dichas respuestas.

En los benchmarks de IA, sin embargo, este factor no suele considerarse (aunque si se hacen mediciones diferentes según la cantidad de cómputo utilizada). Lo que quiero decir es que estamos aplicando herramientas pensadas para medir inteligencia humana a sistemas que operan de manera completamente distinta. Y no creo que sea la mejor forma de hacerlo. Tampoco tenemos otras, al menos de momento.

Vamos a ir cerrando que esto ya se me está yendo un poco de las manos. Quizá estamos vendiendo la piel del oso antes de cazarlo. Intentamos llegar a la AGI antes de tener una verdadera inteligencia artificial. Queremos un superdotado en todo sin tener en cuenta que, al menos de momento, lo que tenemos son talentos simples en modelos que, fuera de esos talentos, son bastante limitados.

Esto no significa que debamos renunciar a la ambición de la AGI, pero quizá deberíamos ser más realistas sobre los pasos necesarios para llegar ahí. Entiendo la necesidad de la utopía para seguir avanzando. Soñar con lo imposible es parte de lo que nos impulsa como humanidad, y también lo que genera inversión, talento y avances que antes parecían inalcanzables.

Aun así, no deberíamos confundir el camino con el destino. Lo que tenemos ahora son modelos especializados, capaces de brillar en contextos muy concretos pero que, fuera de ellos, muestran sus limitaciones. En mi humilde opinión, en esto de la AGI hay más hype (a menudo necesario para captar atención y recursos) que realidad. No me parece mal, pero no nos dejemos engatusar. Mantengamos los pies en la tierra mientras seguimos apuntando hacia las estrellas.

Como siempre he simplificado más de lo que me gustaría y he dejado fuera muchas cosas. Ya dudo que muchos lleguéis a leer hasta aquí, imagina si no lo hiciera. Eso sí, estaré encantado de debatir, profundizar o lo que surja en los comentarios o delante de una taza de café, física o virtualmente. Gracias!