Presente y futuro de la IA
Una mirada al estado actual de la inteligencia artificial y hacia dónde nos dirigimos
Quizá en un futuro, no sé cómo de lejano, consigamos que la Inteligencia Artificial haga honor a su nombre. Sólo le falta la parte de la Inteligencia.
No es una cita de nadie famoso, ni de ningún experto. Es algo que después de varios meses realizando un Master ejecutivo en Inteligencia Artificial, no deja de dar vueltas en mi cabeza. No me malinterpretéis, me parece increíble lo que hemos conseguido hasta ahora con la inteligencia artificial, y estoy seguro de que seguiremos consiguiendo muchos más avances en el futuro. ¡Vivimos momentos apasionantes desde un punto de vista tecnológico!
Incluso aunque no consiguiéramos mejorar mucho más la inteligencia artificial actual, estoy convencido de que ya tendrá un gran impacto en la sociedad. Si todavía no lo vemos es porque aún no hemos encontrado las múltiples formas en que podríamos sacarle partido de forma confiable (y rentable). La forma de llegar a las masas. Pero las encontraremos, siempre lo hacemos.
El problema es que no me parece justo comparar una tecnología como la Inteligencia Artificial con la Inteligencia Humana. Es más, ¿de verdad queremos compararlas? ¿Queremos crear una Inteligencia Artificial que sea más inteligente que nosotros? ¿Tendría sentido?
En las siguientes líneas trataré de dar mi visión al respecto, argumentando de la mejor forma posible mi postura, pero teniendo presente en todo momento que siempre existirá cierto grado de especulación. Es lo que pasa cuando intentas reflexionar sobre temas que todavía nos resultan tan desconocidos. Pido perdón por ello de antemano.
¿Cuál es el presente de la Inteligencia Artificial?
Aunque tengo la sensación de que una gran parte de la sociedad todavía no ha oído hablar, o no tiene ni idea de lo que significa la Inteligencia Artificial, dentro del mundo de la tecnología y los negocios es raro encontrar a una persona que no haya oído hablar sobre la IA. Y muchos quieren empezar a utilizarla. Los avances en los últimos años están produciendo unos resultados espectaculares y todo el mundo quiere subirse al carro.
Modelos de IA capaces de generar texto, imágenes o audio casi indistinguibles de como lo haría un humano. Y pronto llegará el vídeo. Y no solo eso, también tenemos modelos de IA que son capaces de detectar posibles casos de cáncer analizando fotografías de la piel, analizar imágenes médicas como rayos X, tomografías o resonancias magnéticas, analizar electrocardiogramas para detectar arritmias, incluso se está investigando en el diseño de fármacos a medida utilizando modelos de IA generativa en el mundo de las proteínas (y seguro que hay otras mil cosas más super interesantes de las que no habré oído hablar).
Y no nos olvidemos de la conducción autónoma, el reconocimiento de voz, los sistemas de recomendación, la traducción automática de idiomas, los avances en robótica… Todo esto y mucho más puede hacerse a día de hoy utilizando diferentes modelos de IA. Algunas cosas con resultados espectaculares, incluso mejorando a los humanos, y otras todavía en investigación pero con resultados prometedores. Pero en cuanto a inteligencia se refiere creo que no vamos tan bien. Obviamente esto depende de cómo entienda cada uno la inteligencia.
Este es uno de los temas que quería tratar y donde no tengo más remedio que especular, ya que ni siquiera existe una definición de inteligencia que podamos tomar como punto de partida. Y medir algo que no podemos tan siquiera definir se me antoja cuanto menos complicado. Por otro lado, creo que la inteligencia es una de esas cosas que aunque no puedas definir, puedes reconocerla cuando la ves. Y yo no veo inteligencia por ningún lado en todo esto de la IA. No tal y como yo la entiendo. Como escuché hace poco en un podcast, la IA puede ganarnos al ajedrez, pero no puede inventar el ajedrez.
Veo otras cosas, cosas increíbles, cosas que los humanos no podríamos hacer jamás. Como tampoco podemos compararnos con una hoja Excel tratando grandes conjuntos de números, ni tan siquiera con una simple calculadora haciendo cálculos matemáticos más sencillos. Hace tiempo que perdimos esa batalla. La tecnología ya nos ha superado en múltiples aspectos a lo largo de la vida sin que eso haya supuesto ningún problema (más allá del rechazo al cambio que se genera en los inicios con la aparición de nuevas tecnologías).
Creo que es ese mismo desconocimiento que tenemos sobre la inteligencia lo que hace que esta vez las comparaciones sean diferentes. Esta vez existe subjetividad. Mi postura al respecto es que la inteligencia artificial no es inteligente. Tampoco creo que sea creativa. Y no veo ningún problema en que se pudiera conseguir en un futuro, pero no estamos ahí. No creo que haya nada más (y nada menos) que reacciones electroquímicas en nuestro cerebro. Nada de alma ni misticismos varios. Materia, energía, y millones de años de evolución. Y un poco de suerte. Siempre hace falta un poco de suerte. Pero si algún día conseguimos entender cómo funciona la inteligencia humana no veo ningún problema limitante para replicarla de alguna forma. No digo que sea sencillo, pero no creo que sea imposible.
En mi opinión, la inteligencia nace de la necesidad de entender el mundo para, de alguna forma, poder predecir su comportamiento y evitar problemas u obtener beneficios. La inteligencia surgió para aumentar las posibilidades de preservar la vida, y evolucionó para permitir mejorar dicha vida. Y lo hizo en un mundo que no para de cambiar, un mundo repleto de diferentes actores luchando por sobrevivir, por conseguir recursos, por perpetuar la especie. La inteligencia es resolver problemas desconocidos. Los conocidos los resuelve la experiencia, o cualquier software bien diseñado para ello.
Y lo mismo me sucede con la creatividad, que para mí forma parte de la inteligencia. La capacidad de asociar conceptos que nunca antes se habían asociado y que de alguna forma tengan sentido o aporten algo de valor. Sin duda una herramienta imprescindible para poder resolver problemas desconocidos.
Y para que todo esto fuera posible, de algún modo, la forma que encontró la evolución de proporcionarnos estas herramientas fueron los sentidos, para poder interactuar con el mundo de formas muy diferentes, y las emociones, para poder guiar de alguna forma nuestras acciones. No comeríamos si no tuviéramos hambre (y nos moriríamos de inanición). Si tenemos hambre y no tenemos comida necesitamos recordar sitios donde hayamos encontrado comida en el pasado, y necesitamos poder planificar estrategias ya que tendremos que competir por esa comida. También necesitaremos poder improvisar cuando las cosas no sucedan como habíamos planificado. Pura supervivencia. Nunca dejará de sorprenderme lo lejos que hemos llegado en esto de la evolución, y lo poquito afortunados que nos sentimos al respecto.
Podría seguir horas hablando sobre este tema, pero creo que ha llegado el momento de plantearnos algunos de los retos tecnológicos y sociales que todo esto nos plantea.
¿Llegaremos a crear una Inteligencia Artificial que supere a la inteligencia humana? ¿Tiene sentido que lo hagamos?
Como comentaba hace un momento, no veo impedimentos por el lado de la tecnología. No sería un camino fácil, pero estoy seguro que hace 100 años nadie era capaz de imaginar todo el conocimiento y el avance científico que tenemos en la actualidad. Si hace 100 años le dijéramos a un científico que podríamos editar nuestros genes con una precisión asombrosa (CRISPR) nos tacharía de locos. Somos muy malos prediciendo el futuro a medio largo plazo, nuestro pensamiento es lineal y la realidad suele avanzar de forma exponencial.
El problema es que no le veo sentido a intentar replicar, o incluso superar la inteligencia humana en su totalidad. Nuestra inteligencia nació y evolucionó por unas motivaciones concretas de supervivencia en un contexto cambiante. Si asumimos que la inteligencia está en/depende del neocortex, este se ha construido y ha evolucionado encima del “cerebro primitivo”. Sus incentivos para actuar/evolucionar dependen directamente de ciertas necesidades (pe, instinto de supervivencia). ¿Puede una red neuronal ser inteligente sin estos incentivos?. Si diferenciamos la inteligencia del mero conocimiento, por grande que este pueda llegar a ser, mi opinión es que no. Al menos no tal y como la conocemos. Esa falta de incentivos hace que, aunque pudiera generar una respuesta, no sea capaz de realizar la pregunta. Mi opinión es que a día de hoy, la inteligencia de la IA está en quién la utiliza, y en cómo la utiliza.
Evolutivamente hablando tiene sentido que sintamos placer o dolor pero, ¿tiene sentido que una inteligencia artificial tenga sentimientos? Necesitamos tener conciencia y metacognición pero, ¿lo necesita una IA?. Mi respuesta a estas y otras preguntas similares es que no. Es más, no estoy muy seguro sobre si es o no un error intentar dotar a la inteligencia artificial de cosas que pertenecen por diseño (y por necesidad) al mundo de los seres vivos. Por otro lado, también creo que sin esas cosas es imposible replicar la inteligencia humana. Como leía hace pocos días en el libro “Mil cerebros” de Jeff Hawkins, nuestro cerebro tiene conciencia de nuestro cuerpo. Sabe dónde está cada uno de sus miembros y puede percibir información del entorno a partir de ellos. Y para todo esto hay neuronas que han aprendido a crear mapas espaciales, sistemas de referencia, a predecir los cambios que produce el movimiento, a procesar señales sensoriales… Y la evolución ha conseguido alguna forma de especialización al respecto haciendo que el sistema sea eficiente. Aquí estamos como prueba de ello.
Creo que la inteligencia forma parte de la vida. Y veo más acertado orientar el desarrollo de la inteligencia artificial a lo que Kaspárov denominó como un “Centauro” después de sus partidas contra Deep Blue (el primer ordenador que derrotó a un campeón mundial en una partida de ajedrez con las reglas de un torneo estándar). Él lo definía como una especie de equipo formado por un humano y un ordenador jugando juntos como un superjugador (lo del superjugador es cosa mía, no de Kaspárov, pero creo que ilustra perfectamente el concepto).
Replicar la inteligencia humana a base de fuerza bruta haciendo redes neuronales más grandes, aumentando el número de parámetros y el tamaño de los datasets de entrenamiento, no creo que nos aporte mucho más de lo que ya hemos alcanzado. Al menos no con las arquitecturas actuales. Creo que para tener una mejora significativa y un acercamiento a nuestra inteligencia por parte de la IA haría falta un cambio de arquitectura y de sus procesos de entrenamiento. Y una mejora gigante en términos de eficiencia, tanto energética como de aprendizaje. Ninguno de nosotros ha tenido acceso a toda la información del mundo para desarrollar nuestra inteligencia. Ni lo necesitamos. Una vez más, inteligencia, para mí, no es conocimiento.
Hacer que las IAs se parezcan más a un cerebro que todavía no comprendemos. ¿Para qué? Al fin y al cabo vivimos en una sociedad donde la inteligencia ha dejado de ser, por si sola, una ventaja evolutiva. Si no resolvemos los problemas que tenemos en la actualidad no es por falta de inteligencia. Tampoco podemos afirmar que la inteligencia sea sinónimo de éxito. Entiendo la curiosidad científica y el reto que esto supone, pero no veo una necesidad real. Es más, de conseguirlo, en mi opinión tendríamos un gran problema. Evolutivamente hablando la especie humana se ha posicionado por encima del resto gracias a esa inteligencia. Si conseguimos superarla, ¿dónde nos colocaría eso?
Hay algo que yo considero clave y por lo que veo tanta distancia en cuanto a inteligencia se refiere entre los humanos y la inteligencia artificial, y es el aprendizaje continuo. Cuando alguien te corrige puedes cambiar de opinión en un instante, y dicho cambio puede ser para siempre si se refuerza lo suficiente a lo largo del tiempo. O quizá solo dure hasta la siguiente corrección. El caso es que en este tipo de situaciones no necesitamos reaprender todo lo que sabíamos hasta ese momento. Reaprendemos solo la parte afectada. Y esto es algo que no pueden hacer las inteligencias artificiales actuales con los métodos de entrenamiento que disponemos a día de hoy. No podemos reentrenar solo la parte del modelo que no está funcionando como queremos (ni siquiera podemos localizarla). Tenemos que reentrenar el modelo entero. Y eso no tiene sentido, al menos no en términos de evolución. Es demasiado costoso y demasiado poco eficiente. Y nadie nos asegura que esa mejora no rompa cosas en otro lado. Es como cuando tiras de un espagueti en un plato de pasta, no puedes predecir como se moverán el resto de los espaguetis del plato, pero se moverán. Y es bastante probable que acabes con una mancha de tomate en la camisa. Necesitamos una arquitectura que permita aprendizaje “inline” a la vez que va haciendo inferencias. Y creo que para conseguirlo necesitamos incluir de alguna forma un sistema de incentivos intrínsecos y mecanismos de autoaprendizaje localizados. También hay cosas como el pensamiento arborescente (no lineal), y los bucles de pensamiento (darle vueltas a una idea hasta que va cogiendo forma), pero no quiero liarme más ya que no soy ningún experto en la materia y podría meter la pata con cierta facilidad.
Sin embargo, creo que entrenar modelos que resuelvan problemas concretos es mucho más útil y algo más fácil de conseguir que una AGI (inteligencia artificial general). Y además creo que tiene más sentido. Humanos potenciados por inteligencias artificiales. Esto nos introduce de lleno en la última parte de esta publicación, porque en mi opinión, ese hito ya lo hemos alcanzado con el estado actual de la inteligencia artificial. Y es que, aunque no consigamos igualar o superar la inteligencia humana, o decidamos no hacerlo, como decía al principio de la publicación, con el estado actual de la inteligencia artificial ya tenemos unos cuantos retos por delante que deberíamos empezar a plantearnos como sociedad.
Los retos que nos plantea la IA en la actualidad
Imaginemos por un momento que no conseguimos mejorar mucho más el estado actual de la inteligencia artificial. Que no conseguimos hacer que las IAs sean verdaderamente inteligentes. ¿Significa esto entonces que no va a haber un antes y un después de la IA? No. Ni mucho menos.
Ya hemos comentado anteriormente que la IA, a día de hoy, ya es capaz de hacer cosas increíbles. Incluso superándonos a los humanos en muchas disciplinas (aún sin ser inteligentes). Y es que no todo lo que hacemos los humanos está basado en nuestra inteligencia. Es más, diría que la utilizamos bastante poco en nuestro día a día (y no pretendo ofender a nadie con esto, incluyo aquí a todos los humanos, grupo en el que por supuesto me incluyo). Me viene a la cabeza la frase de Dan Ariely de que los humanos somos predeciblemente irracionales. Que tengamos la capacidad de razonar no significa que lo hagamos de manera constante. Y mucho menos significa que cuando lo hacemos, sea de manera acertada. Nosotros tampoco estamos entrenados para buscar la verdad, si no la coherencia. En eso sí que nos parecemos bastante a las IAs. Al fin y al cabo somos nosotros los que hemos decidido cómo entrenarlas, y cuándo el entrenamiento ha concluido y sus resultados nos parecen satisfactorios. No puedo evitar lanzar al aire la siguiente pregunta: ¿puede una inteligencia crear otra superior?. Quizá pueda emerger por si sola si somos capaces de crear un sistema que lo permita pero, ¿seríamos capaces de detectarla?. No voy a meterme en esa madriguera, pero aquí dejo la pregunta por si alguien quiere reflexionar un poco al respecto.
Analicemos por un momento cómo podría cambiar la inteligencia artificial el mundo actual, empezando por el mundo laboral y terminando por nuestras relaciones sociales. Creo sin duda que son dos de las cosas más importantes que mueven en la actualidad al ser humano.
El trabajo, tal y como lo conocemos en la actualidad, es más una forma de organizarnos, de intentar mantener un cierto control social. Hace unos miles de años trabajar era sobrevivir. Buscar alimentos, protegernos de los peligros. Trabajábamos lo justo para cumplir con estos objetivos, lo cual no significa que trabajáramos poco. Pero el trabajo era una necesidad, y era relativamente sencillo saber cuándo hacía falta, y cuando no hacía falta trabajar más. Un león no caza una segunda cebra hasta que no vuelve a tener hambre.
Obviamente el trabajo en la actualidad no tiene nada que ver con esto. Vivimos en una sociedad “money centric” donde hemos puesto el dinero en el centro de todo. Trabajamos para conseguir dinero. Y trabajar ya no es sinónimo de sobrevivir. Muchos trabajos, y creo que cada vez más, no tienen una relación directa con cosas útiles (me refiero a útiles desde un punto de vista evolutivo). En mi opinión, hace años que nos separamos de esta evolución natural.
¿Cómo puede afectar la irrupción de las IAs en el mundo laboral?. Mucha gente piensa que se destruirán muchos puestos de trabajo. Y no son pocos los que creen que, por primera vez en la historia, este cambio tecnológico afectará más directamente a lo que conocemos como trabajos “White Collar”. Ese tipo de trabajo que asociamos a oficinas y que suelen desarrollarse como tareas administrativas, organizativas, de gestión, finanzas, marketing, recursos humanos…
Por otro lado tenemos los trabajos “Blue Collar”, que asociamos con trabajos más manuales, más artesanales, que implican ciertas habilidades físicas o técnicas. Fontaneros, mecánicos, agricultores, ganaderos, panaderos…
Y es que en cierto modo tiene bastante sentido. A día de hoy una empresa de marketing puede prescindir de parte de su equipo, ya que con la aparición de las IAs generativas una parte del trabajo que consumía mucho tiempo y recursos, como la creación de contenido, puede hacerse de manera sencilla y eficaz utilizando diferentes IAs. Una persona utilizando estas nuevas herramientas es capaz de hacer el trabajo que antes hacía un pequeño equipo de unas 4 o 5 personas. Lo mismo ocurre en una empresa de desarrollo de software, y hay muchos ejemplos más. Obviamente esto es un gran cambio. En la actualidad hay mucho trabajo supuestamente intelectual que quizá no lo sea tanto, y ese tipo de trabajo será el primer afectado.
El problema es que, por ejemplo en España, si quieres hacer esta transición tienes que despedir a parte de tu plantilla, y eso tiene unos costes asociados bastante elevados. Quizá no te lo puedas permitir, o quizá aunque te lo puedas permitir no te salga rentable hacerlo. Al menos no en el corto/medio plazo. Y pocos miran al medio/largo plazo en la actualidad, al menos en el mundo de los negocios.
Sin embargo, una empresa de nueva creación que nazca dentro de esta nueva cultura de trabajo mezclando humanos con inteligencias artificiales va a desarrollar su estructura de forma muy diferente. El número de empleados necesarios para llegar a ciertos niveles de facturación no va a ser el mismo. Tampoco los tiempos de sacar un nuevo producto al mercado. Es decir, que más que destruir puestos de trabajo, creo que el problema es que en el futuro se crearán muchos menos y habrá una tendencia hacia el emprendimiento (autoempleo) por encima de las grandes corporaciones. Y esto romperá el equilibrio actual, que lejos de ser perfecto, nos ha funcionado relativamente bien hasta la fecha. Uno puede ser mediocre y tener un trabajo normal, con unos ingresos normales durante toda su vida laboral. Hace 50 años esto era mucho más evidente. No sucederá así en el futuro. Cada vez nos alejamos más de ese escenario y las IAs no harán sino distanciarnos todavía más.
Por poner un ejemplo cercano, uno de los ponentes del Máster de IA que acabo de realizar, junto con su socio, han creado una empresa de 2 personas y, ayudándose de herramientas de IA para el desarrollo de su producto, han conseguido venderla por más de 10 millones de Euros en menos de un año. Las reglas del juego han cambiado y aunque esto no siempre va a salir así de bien, no dudo que no será un caso aislado. El problema es que el modelo socioeconómico y laboral actual no va a soportar estos cambios y se va a hacer más necesario que nunca un rediseño del mismo. Si vivimos en una sociedad centrada en el dinero, y se puede conseguir mucho dinero con un pequeño equipo de trabajo apoyados en herramientas de inteligencia artificial, los incentivos para que la gente se interese por otros trabajos menos rentables van a ser ridículos. Y esto si puede suponer un verdadero problema.
Creo además que este problema ya empezaba a asomar la cabeza antes de la aparición de las IAs tal y como las conocemos hoy, si comparamos los trabajos más digitales/tecnológicos con los trabajos más analógicos. Sin embargo, son estos últimos los más necesarios, y creo que necesitamos rediseñar la arquitectura de incentivos sociales para no terminar de destruir un sistema que ya hace aguas por demasiados sitios. ¿Por qué iba una persona joven a invertir 10 años de su vida formándose en ser, por ejemplo, médico, si sus amigos pueden ganar mucho más dinero vendiendo cosas por internet, haciendo vídeos de YouTube o creando algún curso o info-producto desde el salón de su casa. Todo esto es mucho más complejo de lo que expongo aquí, pero espero que se entienda la idea. Soy consciente de estar simplificado en exceso. Espero que el lector me perdone por ello y que se entienda la idea principal.
Por otro lado, otro de los grandes retos que creo que tendremos que resolver es el de nuestras interacciones sociales. Hablemos de la comunicación. Desde que existe el lenguaje existe la mentira. Antes de poder hablar, nuestro modelo del mundo se limitaba a lo que nuestros ojos podían ver, a lo que nuestras manos podían tocar, a lo que de alguno u otro modo habíamos podido experimentar en primera persona. Pero con la aparición del lenguaje todo esto cambió. Ya no necesitábamos subir una montaña para saber lo que había al otro lado. Si alguien había subido antes que nosotros nos lo podía contar. Y si confiábamos en esa persona, por primera vez habríamos cambiado nuestro modelo del mundo sin tener una experiencia directa en primera persona con esa realidad. Y esto supuso un gran cambio evolutivo.
Ahora teníamos un modelo del mundo mucho mayor, mucho más amplio, y por tanto podíamos hacer mejores suposiciones. Sin duda el lenguaje es una ventaja evolutiva. Pero con el lenguaje también apareció la mentira. ¿Qué pasa si esa información que ahora podíamos recibir de otras personas no era correcta?. No creo que fuera este el origen de la confianza. Antes de poder comunicarnos con palabras ya podíamos confiar o no en otras personas, por ejemplo a la hora de ir a cazar. Y esa confianza era clave para nuestra supervivencia. Pero la complejidad de la confianza si cambió, y mucho, a partir de la aparición del lenguaje. Y eso cambia también la complejidad de nuestras relaciones.
Saltemos una vez más al presente. El mundo actual no es tan diferente en su planteamiento actual, pero el número de interacciones sociales y la cantidad de información disponible ha crecido tanto que se ha vuelto imposible de manejar. Si antes teníamos que confiar en si detrás de una montaña que nunca habíamos subido había un rio o no, ahora tenemos muchísimas más cosas que tenemos que decidir si creer o no. El conocimiento ha crecido mucho en incontables disciplinas y la propia experiencia sirve ya de poco a la hora de establecer criterios de veracidad. Es imposible comprobarlo todo. Y es aquí donde la inteligencia artificial puede hacer que nuestro sistema actual de comunicación, nuestra confianza para crear nuestro modelo del mundo basado en el conocimiento, empiece a tambalearse.
Hablemos por un momento de las fake news, de los deep fakes, y de la ingente cantidad de contenido que generamos los humanos a diario. Y de la gran cantidad de personas que, aun existiendo fuertes evidencias científicas al respecto, deciden creer otras narrativas por encima de dichas evidencias. El juego de la confianza se ha vuelto tan complejo que muchas veces decidimos creer en lo que más nos gustaría que fuera, y no en lo que realmente es. Aquí podría citar a Daniel Kahneman con varios ejemplos sobre sesgos y comportamiento humano, como el sesgo egocéntrico y el sesgo de confirmación. Siento no poder profundizar mucho más en esto para no alejarme demasiado del propósito de la publicación, pero os invito a buscar información sobre ello. Es un mundo apasionante el de los sesgos cognitivos.
Tampoco podemos olvidar que, con el nacimiento de internet, las personas en las que decidimos confiar o no, ya ni siquiera tienen que estar en nuestro entorno más cercano. Podemos leer un artículo publicado por un perfecto desconocido, o ver un vídeo de menos de un minuto de duración de alguien a quien nunca antes hemos visto, y decidir creérnoslo (no siempre de forma consciente) y que esa nueva información cambie nuestro modelo del mundo y por tanto cambie nuestra forma de pensar. Y en mayor o menor medida nuestro futuro. Y esto es algo que, queramos o no, sucede a diario.
Cada vez conocemos más sobre nuestro comportamiento, sobre lo fáciles que somos de manipular, sobre la persuasión y sobre estos sesgos cognitivos. Y no son pocas las personas (y las grandes empresas) que utilizan toda esta información para manipularnos y conseguir sus objetivos. Objetivos totalmente desalineados con los evolutivos. Y las inteligencias artificiales van a potenciar en varios ordenes de magnitud todo esto.
Ya no podremos confiar en que una persona haya dicho algo porque podremos, mediante técnicas de inteligencia artificial, simularlo. Tampoco podremos creernos que un lugar que hemos visto en una foto exista de verdad, ya que puede perfectamente haber sido creado por una IA. Imaginaros el impacto que esto puede tener, por ejemplo, en un juicio. Puede que este tipo de pruebas no puedan volver a ser válidas nunca más. También pueden cambiar nuestra percepción sobre la posición que ocupamos en el mundo, y esto cambiará nuestra forma de sentirnos y nuestra forma de interactuar con el mismo.
Y esto no es más que la punta del iceberg. No hemos tocado el tema de la propiedad intelectual, de la ética y la moral. De delegar en ciertos algoritmos la explotación de las debilidades humanas. De la atribución de responsabilidades que todo esto puede generar. Tampoco hemos hablado sobre si en un futuro preferiremos tener una conversación con una IA que nos haga sentir bien, aunque no haga más que alimentar nuestro ego y no nos lleve la contraria nunca, tengamos o no razón. ¿Pondrá esto en peligro nuestra descendencia?. No lo creo, pero si agitará el árbol y caerán algunas ramas.
Va siendo hora de ir poniendo fin a estas reflexiones. Es la primera vez que escribo algo con la intención de crear más dudas. Y espero haberlo conseguido, ya que la duda suele ser el inicio de la reflexión. Pocas certezas pueden asumirse cuando tratas de predecir el futuro y, como dije al principio, hay mucho de especulación en todo lo que he escrito hasta ahora. No pretendo tener razón, ni siquiera acertar con alguna de mis predicciones/opiniones. No son más que divagaciones sobre un futuro incierto. Por eso mi intención con esta publicación, más allá de hacer mi proyecto de fin de máster, es intentar generar debate, intentar encender algunas bombillitas en los cerebros de las personas que puedan llegar a leerlo, e intentar evidenciar la importancia y la necesidad de empezar a plantearnos futuros escenarios.
Lo que si tengo bastante claro es que la IA no es más que una herramienta, quizá la más potente que hayamos creado los humanos hasta la fecha, pero una herramienta. Sin embargo, como herramienta que es, no dependerá de ella si no de nosotros mismos el uso que hagamos de ella y las consecuencias que ese uso puedan ocasionar. Y tampoco tengo ninguna duda de que el impacto de la inteligencia artificial en la sociedad va a ser muy alto. Pero dependerá de nosotros la dirección que queramos tomar.
No me gustaría terminar de forma pesimista. Por desgracia no le tengo mucha fe a la humanidad en el corto plazo. Especulando un poquito más, creo que lo primero que haremos será utilizar las IAs para intentar generar mucho dinero. Y ese dinero se distribuirá de forma cada vez más polarizada, y la redistribución de la riqueza será cada vez peor. Y creo que eso romperá el modelo socioeconómico actual y hará necesario rediseñarlo por completo. Probablemente intentemos empezar poniendo algunos parches, pero esta vez no creo que sea suficiente con eso. El sistema es ya demasiado complejo y su comportamiento cada vez menos predecible. Hagamos lo que hagamos acabaremos con una mancha de tomate en la camisa.
Sin embargo, echando la vista atrás, ya nos hemos enfrentado a otras situaciones de alto riesgo, como por ejemplo la energía nuclear, y aunque sería relativamente sencillo acabar con la humanidad apretando un botón (una vez más estoy simplificando demasiado), parece que, al menos de momento, no hemos sido tan estúpidos como para hacerlo. Espero que con estos nuevos retos que tenemos por delante seamos, cuanto menos, igual de cautos. Igual de inteligentes. Mi opinión es que si, pero no será fácil. No hay transición sin lucha.
No es la IA la que puede hacer peligrar nuestra existencia, sino nosotros mismos. Siempre ha sido así. Se vienen tiempos apasionantes y probablemente duros, al menos en los inicios. Pero también podrían ser tiempos maravillosos. Todo va a depender, como siempre, de cómo utilicemos nuestras herramientas y de los caminos que decidamos recorrer.
Quiero compartir una última reflexión antes de despedirme y dar por terminado este artículo. Algo sobre lo que todavía no he reflexionado lo suficiente, pero que si empieza a ocupar más tiempo de lo normal en mi cabeza. Quizá dejándolo escrito por aquí me permita tener alguna conversación interesante en el futuro.
Hasta la fecha, nuestra forma de avanzar siempre ha sido la misma: entender cómo funciona algo para poder mejorarlo (o evitarlo). Y aplicando esto de forma iterativa hemos ido dando pasos y creando bases suficientemente fuertes como para ser confiables. Pero la inteligencia artificial, tal y como la conocemos hoy, no es explicable. Y eso puede cambiar una vez más las reglas del juego.
Quizá consigamos pronto modelos de IA que hagan predicciones acertadas sobre cosas que a día de hoy son demasiado complejas y que no habíamos conseguido resolver hasta la fecha (como las previsiones climatológicas o la detección y quizá la cura de ciertas enfermedades). Y eso será un gran avance. Pero por primera vez, no estoy seguro de si estas soluciones dejarán el poso suficiente para seguir avanzando en el futuro.
Es posible que, al menos durante algún tiempo, tengamos que decidir si confiar en una tecnología que no entendemos pero que parece acertar más que nosotros. Y además, aceptar que no tengamos más pistas sobre su resolución de las que teníamos antes de resolverlo. Y no sé si estamos preparados para algo así.