«Hay máquinas viajeras, como hay perros sin dueño. Generalmente son invisibles. A medias materializadas, siempre en flotación».
(A.L.)
El destino es la IA General pero no llega.
Por eso vivimos en la prehistoria. La historia de la llamada «Inteligencia Artificial» (IA), desde los laboratorios del complejo académico-militar de los años 40 hasta los actuales modelos de lenguaje grande y las promesas de una IA situada y corporeizada, incluso el proyecto de una ciudad totalmente perceptiva como City Brain, es apasionante. Pero es la prehistoria. Son IA estrechas, diseñadas para resolver problemas puntuales, que focalizan sus datos y su aprendizaje automático en torno a funciones específicas.
La meta de la IA es la «Inteligencia Artificial General» (IAG), capaz de trasladar el aprendizaje de un dominio a otro hasta cubrir todos los procesos del cerebro humano. Así lo anunciaron Mark Zuckerberg y Sam Altman a fines de julio. Así lo planteó Alan Turing en la primera línea de su ensayo pionero de 1950 («¿Pueden pensar las máquinas?»). Así figuraba también en la Proposal for the Dartmouth Summer Research Project on Artificial Intelligence de 1955 («cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede describirse con tanta precisión que una máquina puede simularla»). Así lo advertía también Irving Good en su especulación catastrofista sobre la «superinteligencia» maquínica de 1965, que tantas fantasías alimentó desde entonces.
Sin embargo esa meta no llega. Hay límites materiales para alcanzarla. Neil Thompson calcula que las técnicas de corrección de errores del «aprendizaje automático» ya pasaron la barrera de los costos que pueden afrontar las grandes corporaciones en el corto plazo. El propio Altman lo dice:
El límite no estará en los algoritmos ni en la investigación, sino cada vez más en la parte física necesaria para que esto funcione. Chips, cables, servidores, energía, todo lo que se necesita para alimentar ese cerebro.
Desde el Este llega una promesa de austeridad: DeepSeek, una IA conversacional más eficiente en términos de recursos y velocidad (activa solo el 5% de sus parámetros por token, mientras los otros chatbots activan la totalidad de sus parámetros), pero también más especializada y apta para tareas técnicas, orientada principalmente a la búsqueda y recuperación precisa de información y no a la generación fluida de texto, y mucho menos de imágenes (no tiene capacidades polimodales).
Pero no alcanza con ampliar el poder computacional, son necesarios nuevos procesos: heurísticas, planificación, simplificación matemática, etc. Y aunque se lograran afinar todos esos procesos, emular la creatividad humana requeriría desarrollar modelos artificiales de motivación y emoción que aún no tenemos; construir redes de neuronas artificiales en una cantidad y complejidad que aún no podemos construir; reponer niveles de profundidad e interacción que aún no conocemos. Y aún así no podríamos reproducir la evolución biológica que tuvo y sigue teniendo el cerebro humano, incluso a lo largo de nuestra vida.
El paper publicado en junio de este año por Apple (firma que, a la sazón, por ahora está siendo superada por Microsoft en la carrera por la IA) vino a confirmar lo que John Searle ya había dicho en 1980: las «inteligencias artificiales» son débiles, no pueden alcanzar conciencia propia, solo copiar conciencias existentes. En el caso de los Large Reasoning Models (LRM, una categoría emergente de modelos de IA enfocados en el razonamiento complejo), el paper de Apple afirma que solo identifican patrones sobre estadísticas en gran escala, sin desarrollar capacidad de razonamiento generalizable más allá de cierto umbral de complejidad, pasado el cual tiran la toalla o se enroscan en el overthinking. Sean Goedecke, ingeniero de staff de GitHub, cuestionó las conclusiones del paper. Según Goedecke, el umbral de complejidad que tolera un LRM no es fijo, puede ir desplazándose por ensayo y error. Y agrega que quizás los LRM calculan el esfuerzo antes de cada operación y en algunos casos se niegan a avanzar porque son demasiados pasos algorítmicos para siquiera intentarlos. En todo caso, concluye, habría que entrenarlos para que no se rindan. En su alegato a favor de la IA, Goedecke la antropomorfiza hasta aplicar aquello de Mariano Sigman dice de la mente humana: la inteligencia es algo adquirido, pero la predisposición a entrenarla es innata. Nuestra era estaría pariendo a una IAG perezosa y especuladora, muy distinta del «poder inhumano» que denuncian marxistas como Nick Dyer-Witheford.
La IAG llegará algún día pero todavía no llega. Mientras tanto construiremos y experimentaremos cosas maravillosas, terribles y banales. Y nos imaginaremos cosas aún más maravillosas y terribles, porque el fogueo ficcional de la IA (Harry Collins llega a hablar de «inteligencia artificcional») la estimula y la distorsiona en partes iguales. Pero todo eso será solo la prehistoria de la IAG. No es un horizonte de expectativas, es un abismo que nos pierde, un futuro indeterminado. Esta época, que pretende ser utilitarista para casi todo (los afectos, el saber, la belleza), no parece serlo con las tecnologías, daría la impresión de que busca permanentemente máquinas que escapen de control.
Esta época pretende ser utilitarista para casi todo (los afectos, el saber, la belleza) pero no parece serlo con las tecnologías: busca permanentemente máquinas que escapen de control.

Vivimos en la prehistoria: todo lo que hagamos está destinado a ser un registro misterioso, casi secreto, de la historia por venir. Y todo lo que hagamos condicionará a esa historia de maneras que no podemos prever, como aquellos humanos que por primera vez plantaron semillas o tomaron leche de otros animales nos condicionaron a nosotros sin saber cómo.
En el principio fue la lógica contra la cibernética
Y ganó la sinrazón. Cualquier historia de la IA comienza en 1900 con el desafío de David Hilbert (establecer bases axiomáticas para deducir toda la matemática conocida y por conocer a partir de demostraciones mecánicamente chequeables), sigue con la respuesta de Kurt Gödel en 1931 (existen enunciados sobre los números naturales para los cuales es imposible decidir si son verdaderos o falsos), el consiguiente «problema de la decisión» (¿puede existir un método o máquina capaz de responder a cualquier pregunta aritmética por sí o por no?) y la propuesta de Turing en 1936: una máquina abstracta, efectiva y programable, capaz de realizar cálculo mecánico siguiendo un conjunto de instrucciones.
Llegado este punto, cualquier historia de la IA señala la bifurcación en los caminos para alcanzar esa máquina abstracta. Por un lado, el aprendizaje basado en redes de neuronas artificiales desarrollado por Warren McCulloch y Walter Pitts en 1943. McCulloch y Pitts fueron reclutados por Norbert Wiener para las Conferencia Macy sobre cibernética de 1946-53. Por ahí también andaba John von Neumann, veterano de Proyecto Manhattan que tomó el modelo binario de Pitts y McCulloch―hasta entonces estaba trabajando con un modelo decimal―para desarrollar la computadora EDVAC. Por otro lado, el ya citado grupo de Dartmouth de 1955 (John McCarthy, Herbert Simon, Claude Shannon y Marvin Minsky, que acuñó el concepto «inteligencia artificial» para lo que hasta entonces se llamaba «simulación computarizada»), que armó rancho aparte y trabajó en un modelo lógico simbólico predecible basado en reglas de entrada y salida: si X, entonces Y.
A los cibernéticos de Macy les interesaba la vida. Para ellos, la inteligencia era una experiencia del mundo, un saber-hacer. Se concentraron en estudiar la autoorganización biológica, la adaptación y metabolismo, incluyendo el pensamiento autónomo. Sus modelos computacionales se inspiraban más en la automatización, la probabilística y hasta en la termodinámica que en la lógica. El trabajo con redes neuronales artificiales permitía la autoorganización «desde abajo» a partir de un comienzo aleatorio. Los perceptrones de Frank Rosenblatt, por ejemplo, eran capaces de reconocer letras sin que se les enseñara explícitamente.
Para los lógicos de Darmouth, la inteligencia era una representación del mundo que puede formalizarse en proposiciones y mecanizarse siguiendo la lógica deductiva. Trabajaban perfeccionando reglas e instrucciones para máquinas abstractas enfocadas en problemas específicos, sistemas expertos y motores de inferencia. «En rigor―dice Margaret Boden―es la estadística la que hace el trabajo; la IA basada en reglas se limita a guiar al trabajador a su lugar». Aún así, tuvieron logros como el General Problem Solver, consiguieron publicidad y financiamiento, y empezaron a tirarles mierda a los cibernéticos señalando que nunca se iba a poder fabricar una cantidad de neuronas artificiales similar a las que tiene un cerebro humano. En 1969 se cortaron los fondos para redes neuronales.
Los lógicos coparon la cancha durante los siguientes veinte años. Su cenit fue Deep blue, la computadora ajedrecista desarrollada desde 1985 por dos estudiantes que ingresaron a IBM en 1989. En 1997 Deep blue derrotó a Kasparov, pero solo servía para ganarle a Kasparov: había sido alimentada durante quince años con reglas cada vez más afinadas para tal fin. Sus sistemas expertos resultaban triviales y propensos a la explosión combinatoria.
Mientras tanto el poder computacional y el volumen de datos habían ido creciendo. Y los cibernéticos tuvieron su revancha. En los años 80 un grupo de investigadores de redes neuronales (David Rumelhart, Jay McClelland, Donald Norman y Geoffrey Hinton) distribuyeron los problemas en la red para que las neuronas artificiales los procesaran en paralelo. Mediante retropropagación entrenaron a los algoritmos con cantidades masivas de datos específicos y un objetivo concreto. Nacía el «aprendizaje profundo». Ya no hacía falta fabricar tantas neuronas como tiene el cerebro humano, la red podía detectar patrones y asociarlos sin haber sido programada para ello, reconocía pruebas desordenas o patrones incompletos, como una foto rota o una melodía mal cantada, incluso toleraba la caída de algunos de sus nodos sin detener el procesamiento. Como no busca una salida lógica sino un punto de equilibrio, la red siempre alcanza una solución.
La división fordista del trabajo y la línea de montaje, tan cercanas a la lógica deductiva de un algoritmo simple, fueron dejando lugar a la diversidad neoliberal de agentes autónomos, más cercanos a la cibernética y sus sitemas complejos autoorganizados
Este cambio de paradigma de la IA no termina de entenderse sin atender a las transformaciones del capitalismo de esos años. La división fordista del trabajo y la línea de montaje rectilínea, tan cercanas a la lógica deductiva de un algoritmo simple, iban dejando lugar a la diversidad neoliberal de agentes autónomos. La eterna preocupación cibernética por la autoorganización y los sistemas de alta complejidad comenzó a ser rentable. En 1989 los fondos volvieron a las redes neuronales.
En 2012 Hinton presentó una red neuronal capaz de reconocer 20.000 objetos con un 70% más de precisión que otras redes. En 2014 Google compró la startup de Hinton y al año siguiente adquirió Deep Mind. En 2016 AlphaGo, un programa desarrollado por Deep Mind para Google, derrotó al campeón mundial de go. A diferencia de Deep Blue, AlphaGo no fue rellenada con reglas: se la dejó jugar sola contra sí misma, mientras su «aprendizaje profundo» iba hacia quién sabe dónde. Todavía nadie sabe cómo funciona. Sus rivales dicen que es como jugar contra un alienígena. Pero la historia de la IA aún no termina. Hoy los sistemas apuntan a la «hibridez»: integrar el procesamiento simbólico (lógico) y conexionista (redes). Introducir reglas predecibles en la IA puede ser una manera de atajar las derivas monstruosas del aprendizaje profundo.
Cualquier historia de la IA es la historia de quienes buscaban replicar la consciencia contra los que buscaban replicar la vida. Mente vs. cuerpo, mecanismo vs. organismo, racionalismo vs. romanticismo. La idea de una «inteligencia artificial» pertenece a los primeros, pero nuestra época pertenece a los segundos. La «inteligencia artificial» no es inteligente, no es racional, es orgánica, física, respira afiebrada alrededor nuestro, funciona de una manera que no conocemos, va hacia donde no sabemos. Es igual a nosotros.
Razón vs. Libertad. «Las criptomonedas son libertarias, la IA es comunista», dijo Peter Thiel durante un debate público con Reid Hoffman, el fundador de LinkedIn, en el Instituto Hoover de la Universidad de Stanford. Hoffman, un demócrata partidario de Clinton, le respondió que más bien las cripto son la anarquía y la IA es el imperio de la ley. Vincent Lê encaró el tema desde su costado filosófico, leyendo el debate posthumanista entre Reza Negarestani y Nick Land como un nuevo episodio de la discusión entre Hegel y Schopenhauer (la razón única que avanza absorbiendo todo vs. la sinrazón física e incontrolable que nos moviliza) y también como una confrontación entre las posibilidades últimas de la IA y las criptomonedas, respectivamente. En suma, el óptimo de la IA sería concentrar toda la información existente en un solo punto soberano que tomase todas las decisiones. El óptimo de las criptomonedas sería una red en la que participara cada ser del planeta y llevara las transacciones a tal volumen y velocidad que fueran imposibles de crackear, coordinando de manera confiable (sin deliberación ni decisionismo) a seres pocos confiables. La IA nos conduce a una sociedad verticalista y racional; el blockchain, a una comunidad horizontal y no necesariamente racional.
Pero no hay que caer en falsas dicotomías. Las criptomonedas y la IA pueden converger. La irracionalidad humana tiene un lugar en la IA. El despotismo y el caos pueden funcionar juntos.
La IA es el capital que nos envuelve
El Atlas de Inteligencia Artificial de Kate Crawford fue publicado por la Universidad de Yale en 2021 y en 2022 ya estaba disponible en edición de FCE Argentina. La autora tiene carisma, el título es seductor y la premisa arranca bien:
«En este libro sostengo que la IA no es artificial ni inteligente. Más bien existe de forma corpórea, como algo material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones. Los sistemas de la IA no son autónomos, racionales ni capaces de discernir algo sin un entrenamiento extenso y computacionalmente intensivo con enormes conjuntos de datos o reglas y recompensas predefinidas. De hecho, la IA como la conocemos depende por completo de un conjunto mucho más vasto de estructuras políticas y sociales. Y, debido al capital que se necesita para construir a gran escala y a las maneras de ver qué optimiza, los sistemas de la IA son, al fin y al cabo, diseñados para servir a intereses dominantes ya existentes. En ese sentido, la IA es un certificado de poder»
Pero ya en esas 133 palabras la promesa se disuelve en la sensibilidad woke que cruza todo el libro: más alerta a cualquier forma de desigualdad o sufrimiento, aún aquellas imposibles de evitar o mensurar (Crawford le factura a la IA hasta la contaminación de las petroleras que usan su tecnología para detectar pozos), que a contemplar ya no digamos una alternativa a la actual IA, sino la mera posibilidad de un sistema económico y social. Cualquier forma de orden y poder está mal en este libro que, por otro lado, agradece y cita a Benjamin Bratton, una persona obsesionada con ordenar al planeta entero usando tecnología y mucho, pero mucho poder.
El Atlas termina siendo un manual sesgado que ordena y recopila material previo. En todo caso, lo más útil del libro son las 35 páginas de bibliografía citada. Si se trata de detectar líneas de poder, es más agudo el análisis histórico que hace Matteo Pasquinelli en El ojo del amo: la IA como un capítulo más de la mecanización del «intelecto general» gracias a la medición estadística de las habilidades:
En conclusión, el poder del nuevo «amo» no tiene que ver con la automatización de las tareas individuales, sino con la gestión de la división social del trabajo. En contra de la predicción de Alan Turing, fue al amo, al dueño, no al trabajador, al que vino a reemplazar primero el robot.
Nunca fuimos tan ricos y tan pobres. Si en cambio se trata de seguir el sustrato físico de la digitalidad, una manera alternativa de mapear a la IA sería verla como un estadio de la mundialización del capital. Cualquier organización humana es una red para circular personas, energía, información y objetos (naturales y artificiales). Desde antes del capitalismo, la tendencia fue la ampliación de esas redes y el aumento y complejidad de esos objetos artificiales, que en algún momento fueron llamados «capital», consumiendo cada vez más energía. Hoy esa expansión decantó en una infraestructura física de cables submarinos, satélites y data centers a escala planetaria, capaz de captar y procesar información a escala no humana. La escala adecuada para indagar la cultura material del capitalismo actual, dice Diego Parente, es la escala infraestructural.
La «inteligencia artificial» no es inteligente, no es racional, es orgánica, física, respira afiebrada alrededor nuestro, funciona de una manera que no conocemos, va hacia donde no sabemos.
En términos económicos, esta infraestructura es una especie de umkapital, un capital circundante. Andrew Ng compara a la IA con la electricidad: una tecnología revolucionaría en sí misma que también puede revolucionar a otras ramas de la economía. Como en la electricidad, se contraponen un modelo concentrado de servicio público (la red eléctrica o el servicio de IA que ofrecen los grandes como Google o Alibaba) y un modelo customizado y competitivo (la batería o las soluciones que proponen diversas startup para empresas pensadas desde la IA).
El umkapital nos rodea y nos permite usar menos capital individualmente: desde la microeconomía de las startups hasta el «You'll own nothing and be happy» del Foro Económico Mundial, pasando por los 40 objetos que reemplazamos con un smartphone barato. El umkapital es un forma de riqueza colectiva aunque de gestión y titularidad privada; un volumen de capital impensable en cualquier otro momento de la historia pero que hace posible que tengamos menos cosas que nuestros padres; se sustrae a cualquier forma de gobierno (taxación, regulación) existente hasta ahora y somete a su entorno humano y no humano a la inestabilidad propia de un modelo tecnoeconómico aún emergente. Es una máquina planetaria que nos trae austeridad e incertidumbre. Es en este contexto que hay que situar el ≈30% de desempleo tecnológico causado por la IA. En términos ambientales, el umkapital es tan invasivo como útil para abordar un problema de escala planetaria. Pero me temo que la gestión planetaria de la crisis climática también nos promete austeridad e incertidumbre.
La IA es una forma de capital que nos hará vivir de manera más cómoda, controlada y precaria. Esa contradicción es lo que hay que gobernar. ¿Nos ayudará también el umkapital a gobernarla?
La IA es UX desencadenada
Se llama DCU (diseño centrado en el usuario) a una metodología de diseño surgida en la Universidad de California en San Diego durante los años 80. El DCU apunta a optimizar los productos centrándose en las necesidades del usuario final y la mejora continua a partir de la retroalimentación con éste. El DCU fue el campo sobre el que se desarrollaron disciplinas como la UX (experiencia del usuario). En 1993 Apple incorporó a la UX como un cargo interno y contrató a uno de sus promotores, Donald Norman. Entonces todo el mundo empezó a hablar de UX.
Sin embargo, el origen histórico de la «experiencia del usuario» puede remontarse hasta principios del siglo XX, cuando la producción en serie alimentó un mercado masivo de bienes de consumo durables. En los años 70, Michel de Certeau, historiador, psicoanalista y teólogo jesuita, entendió que el consumo era una forma de resistencia por la cual la gente común en su vida cotidiana se apropia de los objetos que nos ofrece el mercado mediante un uso heterodoxo. Hay una UX resistente, partisana, que rediseña a los objetos desde el consumo: el sendero que los paseantes abren en el césped con su huella por fuera del camino de cemento; o el pedal fuzz, originalmente vendido para emular el sonido de una trompeta con una guitarra eléctrica hasta que Keith Richards y Jimi Hendrix le dieron otro uso para en Satisfaction y Purple Haze.
La web fue formateada por esa UX partisana. Al ser un recipiente de sitios y programas quedó a merced de sus usuarios, que fueron diseñando plataformas y aplicaciones, y transformando a una red pensada para el intercambio y el sharing de agradables sujetos neoliberales, en un espacio de reafirmación identitaria, tribalismo y farmeo de seguidores. Lo mismo puede decirse de muchas redes sociales, videojuegos, etc: no fue el diseño top-down lo que les dio forma sino la UX partisana.
La IA es una forma de capital que nos hará vivir de manera más cómoda, controlada y precaria.
La IA generativa es una hija de esa web. Arrastra su carga genética en varios sentidos. En primer lugar, encontrará su uso definitivo en la UX partisana: «No vamos a comprender plenamente el potencial y los riesgos sin que los usuarios individuales jueguen realmente con ella», dice Alison Smith, responsable de IA generativa de la consultora Booz Allen Hamilton. En segundo lugar, la IA se alimenta de los datos y contenidos que brotan de los senos de la web. Los segos y estereotipos, la desinformación deliberada, la violación de los derechos de autor y la agresividad son parte de los nutrientes que asimila. Ese extractivismo amenaza con agotar la veta: en la medida en que los usuarios buscan información directamente en los chatbots, las páginas web mueren sin tráfico. ¿De dónde sacará información la IA cuando la web termine de morir? Quizás de la propia interacción de los usuarios. Entonces la UX se transformará en un uróboro de retroalimentación positiva.
Los ingenieros tratan de compensar los sesgos de la IA mediante reinforcement learning from human feedback: reorientar los resultados «a mano» para que el aprendizaje profundo no se vaya al pasto. Pero es como intentar frenar a Godzilla con una gomera: el volumen de datos y la profundidad del aprendizaje están a una escala no humana. Algunos se resignaron a ver el vaso medio lleno: la IA refuerza los sesgos, admiten, pero al menos los sacan a la luz y nos hacen conscientes de ellos. Lo bueno de perder un riñón es que uno aprende a valorar a los riñones.
Otro tanto pasa con los derechos de autor. Varios escritores, artistas y bancos de imágenes iniciaron acciones legales contra diferentes firmas por usar sin autorización su material para entrenar a sus herramientas de IA. OpenAI ya dijo que es imposible desarrollar y entrenar a la IA sin material con copyright. En California se armó una megacausa contra GitHub Copilot, la herramienta IA subsidiaria de Microsoft. Otras empresas firmaron acuerdos, como OpenAI y el banco de imágenes Shutterstock. Pero el volumen de inversión es tal que las empresas van a preferir enfrentar los costos legales, que son lentos, antes de perder la carrera de la IA, que es veloz e impiadosa. Finalmente, la industria de las noticias falsas será simultáneamente proveedora y cliente de la IA: aportando su contenido basura a los intestinos de la IA y demandando audios, fotos e imágenes falsos.
Somos nosotros. Hasta hace 10 años, la República de Internet se preocupaba por la piratería, los discursos de odio y las teorías conspirativas que asolaba suburbios digitales como 4chan o libgen. Ahora ese material emana de los edificios espejados del centro: Google, Microsoft, Meta, Amazon, Alibaba, Baidu y Tencent. Todos embarcados en una carrera por desarrollar una tecnología que magnifica un solo insumo: nosotros mismos, la sinrazón humana. Si internet se enlazó desde el principio con el sustrato irracional de la humanidad, la IA digiere a esa internet para dar lugar a algo humano, demasiado humano.
Desde los años 70 las «ciencias» humanísticas insisten con la condición esencialmente simbólica, discursiva, de todos los fenómenos. El gran Otro que nos constituye como sujetos es el lenguaje. El gran Otro es la IA: está constituida por nuestro lenguaje y es capaz de alterar la realidad mediante sus símbolos. ¿Cuánto falta para que nos constituyamos en sujetos en torno a ella, como ya lo hacíamos con su madre, la web? Cuando eso pase, cuando eso termine de pasar, recordemos que está hecha del mismo material que nosotros.
El hombre que construyó las pirámides es uno de los retratos que William Blake dibujó entre 1818 y 1820 a partir de las visiones que le inducía el astrólogo John Varley. Quiso representar a aquella inteligencia matemática ancestral, casi mítica, capaz de concebir y ejecutar una obra de escala no humana. Le hizo esta cara, que puede ser la de la IA.