¿El problema de la inteligencia artificial? No es ni artificial ni inteligente

por Evgeny Morozov

Publicado el 30 de marzo de 2023 en The Guardian

Retiremos este término trillado: mientras que ChatGPT es bueno en la comparación de patrones, la mente humana lo hace mucho mejor.


Elon Musk y el cofundador de Apple, Steve Wozniak, firmaron recientemente una carta en la que pedían una prórroga de seis meses en el desarrollo de sistemas de IA. El objetivo es dar tiempo a la sociedad para que se adapte a lo que los firmantes describen como un “verano de IA”, que creen que en última instancia beneficiará a la humanidad, siempre que se establezcan las medidas de seguridad adecuadas. Estas barreras incluyen protocolos de seguridad rigurosamente auditados.

Es un objetivo loable, pero hay una manera aún mejor de pasar estos seis meses: retirar la trillada etiqueta de “inteligencia artificial” del debate público. El término pertenece al mismo montón de conceptos tirados al vertedero de la historia que incluye “cortina de hierro”, “teoría del dominó” y “momento Sputnik”. Sobrevivió al final de la guerra fría debido a su atractivo para los entusiastas e inversores de la ciencia ficción. Podemos darnos el lujo de herir sus sentimientos.

En realidad, lo que hoy llamamos “inteligencia artificial” no es ni artificial ni inteligente. Los primeros sistemas de IA estaban fuertemente dominados por reglas y programas, por lo que al menos estaba justificado hablar de “artificialidad”. Pero los de hoy, incluido el favorito de todos, ChatGPT, obtienen su fuerza del trabajo de humanos reales: artistas, músicos, programadores y escritores cuya producción creativa y profesional ahora se apropia bajo la excusa de salvar la civilización. En el mejor de los casos, esto es “inteligencia no artificial”.

En cuanto a la parte de “inteligencia”, los imperativos de la guerra fría que financiaron gran parte del trabajo inicial en IA dejaron una fuerte huella en cómo la entendemos. Estamos hablando del tipo de inteligencia que sería útil en una batalla. Por ejemplo, la fuerza de la IA moderna radica en la coincidencia de patrones. No es de extrañar dado que uno de los primeros usos militares de las redes neuronales, la tecnología detrás de ChatGPT, fue detectar barcos en fotografías aéreas.

Sin embargo, muchos críticos han señalado que la inteligencia no se trata solo de la coincidencia de patrones. Igualmente importante es la capacidad de hacer generalizaciones. La obra de arte Fountain de Marcel Duchamp de 1917 es un excelente ejemplo de esto. Antes de la obra de Duchamp, un urinario era solo un urinario. Pero, con un cambio de perspectiva, Duchamp lo convirtió en una obra de arte. En ese momento, estaba generalizando sobre el arte.

Cuando se generaliza, la emoción anula las clasificaciones arraigadas y aparentemente “racionales” de ideas y objetos cotidianos. Suspende las operaciones habituales, casi mecánicas, de coincidencia de patrones. No es el tipo de cosas que quieres hacer en medio de una guerra.

La inteligencia humana no es unidimensional. Se basa en lo que el psicoanalista chileno del siglo XX Ignacio Matte Blanco llamó bi-lógica: una fusión de la lógica estática y atemporal del razonamiento formal y la lógica contextual y altamente dinámica de la emoción. El primero busca las diferencias; el último se apresura a borrarlos. La mente de Marcel Duchamp sabía que el urinario pertenecía a un baño; su corazón no. La Bi-lógica explica cómo reagrupamos las cosas mundanas de maneras novedosas y perspicaces. Todos hacemos esto, no solo Duchamp.

La IA nunca llegará allí porque las máquinas no pueden tener un sentido (en lugar de un mero conocimiento) del pasado, el presente y el futuro; de la historia, de lo que hiere o de la nostalgia. Sin eso, no hay emoción, privando a la bi-lógica de uno de sus componentes. De este modo, las máquinas quedan atrapadas en la lógica formal singular. Así que ahí se va la parte de “inteligencia”.

ChatGPT tiene sus usos. Es un motor de predicción que también puede funcionar como una enciclopedia. Cuando se le preguntó qué tienen en común el botellero, la pala de nieve y el urinario, respondió correctamente que todos son objetos cotidianos que Duchamp convirtió en arte.

Pero cuando se le preguntó cuáles de los objetos de hoy en día Duchamp convertiría en arte, sugirió: teléfonos inteligentes, scooters electrónicos y máscaras faciales. No hay indicios de ninguna “inteligencia” genuina aquí. Es una máquina estadística bien administrada pero predecible.

El peligro de seguir usando el término “inteligencia artificial” es que se corre el riesgo de convencernos de que el mundo funciona con una lógica singular: la del racionalismo altamente cognitivo y de sangre fría. Muchos en Silicon Valley ya creen eso, y están ocupados reconstruyendo el mundo influidos por esa creencia.

Pero la razón por la cual las herramientas como ChatGPT pueden hacer cualquier cosa, incluso remotamente creativa, es porque sus conjuntos de entrenamiento fueron producidos por humanos realmente existentes, con sus emociones complejas, ansiedades y todo. Si queremos que esa creatividad persista, también deberíamos financiar la producción de arte, ficción e historia, no solo los centros de datos y el aprendizaje automático.

Eso no es en absoluto hacia donde apuntan las cosas ahora. El riesgo final de no retirar términos como “inteligencia artificial” es que harán invisible el trabajo creativo de la inteligencia, mientras que el mundo será más predecible y tonto.

Entonces, en lugar de pasar seis meses auditando algoritmos mientras esperamos el “verano de la IA”, también podríamos ir y releer “Sueño de una noche de verano” de Shakespeare. Eso hará mucho más para aumentar la inteligencia en nuestro mundo.