«Hoy el pensamiento tiene que ser un ensamblaje del humano y la computadora»

Javier Blanco pertenece al grupo compacto pero bastante federal de los filósofos de la técnica en Argentina, en su caso enfocado a la computación. Es doctor en Ciencia de la Computación, docente e investigador en la Universidad Nacional de Córdoba, donde dirige la Maestría Tecnología, Políticas y Culturas. También es secretario general de ADIUC, el gremio de los docentes universitarios de Córdoba. Desde esa triple pertenencia, en esta entrevista nos habla de la precariedad de la IA, el futuro del pensamiento humano y la política de la cibernética.

por Alejandro Galliano

«La cuestión de si las máquinas pueden pensar es tan relevante como preguntarse si los submarinos pueden nadar» es una frase de Edsger Dijkstra, un científico de la computación que vos citás muy seguido. ¿Qué nos dice esa frase sobre el machine learning, la llamada Inteligencia Artificial?

Dijkstra lo que busca es la mirada no antropomórfica de los sistemas computacionales. Otra frase de él es: «Imitar la mente humana, me parece una empresa un poco tonta, podríamos imitar algo mejor». Y me parece que es un baño de humildad, por un lado, pero también es una apertura de las posibilidades cognitivas de la mente humana. La evolución hizo lo que hizo. Inodoro Pereyra decía que no se puede hacer al mundo en siete días, porque así sale. Bueno, tampoco se puede hacer una inteligencia buena en 200.000 años, porque así sale: si estamos con hambre, ya no podemos pensar bien. No es una gran cosa la inteligencia humana. Creo que, al revés, lo realmente notorio es cómo podemos sobrevivir y haber hecho tantas cosas con este cerebro tan primitivo, tan de primate. 

A mí me parece fundamental entender la oportunidad de la computación en general como proyección de posibilidades cognitivas más allá de la propia humanidad, del propio cuerpo humano, sobre todo con otra herramienta. Yo también insisto mucho con algo que también dice Dijkstra, y es la capacidad sintáctica de la computación. La mente humana funciona de manera semántica pero la sintaxis puede ser algo bastante más sofisticado que la semántica humana. O mejor dicho, la semántica es subsidiaria de lo sintáctico. Hay un filósofo de la computación, que se llama William Rapaport, que dice que, en realidad, todas las semánticas finalmente son formas sintácticas. La sintaxis son relaciones intrasistemas y la semántica, relaciones intersistemas, entre dos sistemas diferentes.

En ese sentido, la Inteligencia Artificial actual es peor que la programación porque el código mismo del modelo es opaco en términos de codificación. Cuando un programador o programadora programa un código normal, un código tradicional, al código lo puede estudiar, lo puede mejorar, lo puede compartir y otro programador lo lee y lo entiende. No pasa con los modelos de IA: son modelos tan opacos como el cerebro humano. Por un lado, consiguen una gran cosa con solo estadística y con solo entrenamiento a partir de datos, que es reproducir patrones estadísticamente, no con precisión, algo que era muy difícil de hacer antes y que excede, por un tema meramente cuantitativo, la capacidad humana. Eso está buenísimo por un lado. Por el otro, hay una pérdida enorme que es esa capacidad sintáctica y la posibilidad de sofisticar muchísimo la programación. Además, por una historia de las apuestas tecnológicas, esa posibilidad ha disminuido muchísimo porque toda la plata está puesta ahora en reconocimiento estadístico de patrones.

Por supuesto, que hubo un logro impresionante, no quiero minimizar eso. Creo que ese camino es un máximo local: pero se están perdiendo otros caminos que pueden ser mucho más sofisticados, más interesantes y que volverán históricamente porque hay mucho más por hacer ahí. Y tiene que ver con que la sintaxis. Un programa es también un dato, o sea, es también algo operable. Un programa es un texto escrito y uno puede trabajar sobre ese texto. El machine learning, no. Es un modelo cuyo funcionamiento es empírico, al que solo se lo puede hacer andar una vez que está hecho. 

¿Cuáles son los límites del machine learning hoy? 

En el presente la inteligencia artificial, el machine learning, el aprendizaje maquínico, tiene todavía mucho por explorar. Hay un libro que se llama Rebooting AI: Building Artificial Intelligence We Can Trust, de Gary Markus y Ernest Davis, que dice que muchas de las promesas de la IA no se cumplieron: no hay autos que anden solos, más allá de la casi infinita plata puesta ahí. Y es un problema intrínseco de este tipo de programas: no son composicionales. La programación composicional significa que uno resuelve un problema, resuelve otro problema, lo juntan y se resuelven problemas más grandes. La IA como tal no puede hacer eso. En general, sólo puede hacer una cosa monolítica. Esa no composicionalidad la vuelve poco apta para construir otras cosas. Por supuesto que hay mucha gente buscando formas de hacerla composicional. Otro problema es que la IA no es explicativa, no explica por qué. Hay gente pensando cómo hacer que las redes neuronales no solo digan que esto sí es o no es un criterio terminado, sino que explique ese criterio. Bueno, hay de todo avanzando y quizá alguno le pegue, pero hoy por hoy tienen límites concretos este tipo de sistemas. 

Lo sorprendente es que con tan poco, y con tantos límites, el machine learning pueda alcanzar o superar tantas destrezas humanas.

Exactamente, es raro que chatgpt sea visto de forma antropomórfica cuando, en realidad, es un productor aleatorio de frases que satisfacen cierto criterio de admisibilidad lingüística y que están enfocados en una subred semántica basada en mera identificación de palabras. No hay más que eso. Es más, se llama «atención» al proceso. Y por supuesto, que hay miles de programadores que lo han mejorado. O sea, han ocultado un poco su real funcionamiento. Está retocado para que sea palatable para mucha gente. Digamos, no curiosamente, que está hecho por africanos, kenyanos que laburan por menos de un dólar por hora para hacerlo «más lindo», es decir, más adecuado a los prejuicios occidentales, paradójicamente. Yo me imagino que alguna vez alguien puede llegar a decir que está sobrevaluada la cultura africana en el chatgpt, van a denunciar el «sesgo africano» del chat… A mí me gustaría más ver la verdad misma: el motor estadístico puro y duro que diría cosas groseras y desagradables. 

No es una gran cosa la inteligencia humana. Creo que, al revés, lo realmente notorio es cómo pudimos sobrevivir y haber hecho tantas cosas con este cerebro tan primitivo, tan de primate 

Si pasamos del output al input de la IA generativa, hay un problema con la propiedad intelectual de los insumos que usan estos programas.

Creo que habría que asumir lo que siempre hubo que asumir: que los derechos de autor son una ridiculez. Esto muestra lo que decía Borges, que toda escritura es reescritura. Es como si Borges tuviera que pagar a Homero por haberlo puesto en El inmortal. Hay siempre una reescritura continua que, encima, acá la hacen entidades cognitivas no humanas.

La idea de «patente de programación» siempre estuvo presente y es casi imposible hacerlo. Todo programador usa una idea conceptual que usó otro. Si hubieran establecido patentes de programación sería básicamente imposible programar. Así como hoy es básicamente imposible hacer cualquier tipo de biotecnología sin pagar alguna patente. Esto es la idea de «muro de patentes»: que alguien no pueda pasar de acá para acá sin tener que pagarle a alguien. Y, por supuesto, todas las empresas más exitosas en este rubro son las que no producen nada; las que tienen patentes y les cobran a las que producen. 

Creo que el sistema de patentes y el sistema de propiedad intelectual está deteniendo las fuerzas productivas. En el mismo sentido que el feudalismo detenía a la producción, bueno, yo creo que estamos frente a algo similar. Puede ser uno de los caminos por los cuales el capitalismo tenga que dar lugar a otra cosa: esta detención de la capacidad productiva por propiedad intelectual.

Pablo González, de El Gato y la Caja, especula con que el blockchain podría establecer la veracidad de datos creados con la IA, registrándolos en esa base de datos descentralizada.

Es interesante conceptualmente porque es la idea de poder certificar la validez de algo de manera distribuida: no hace falta un certificador. Lo que ocurre es que falsificar es muy caro en general. El blockchain es caro, o sea, que la forma de evitar que alguien falsifique es hacer que sea caro computacionalmente, pero eso implica todo una industria de la computación, es un gasto energético absurdo para algo artificial. Mientras que las computadoras en general están ociosas en mayor parte del tiempo, hacen falta granjas de servidores gigantescos para generar algo que no es un cómputo para un objetivo concreto, sino para verificar transacciones. Pero me dicen que hay otros métodos: un método que se llama proof-of-stakes que se basan en mecanismos de consenso, intentando que no sean simplemente puzzles criptográficos que se resuelven con mucho poder de cómputo, solamente con fuerza bruta. 

Pero más allá de eso, el blockchain es conceptualmente interesante, sin duda. Muestra la posibilidad de que ya no haga falta un «Banco Central» (bueno, no es una buena metáfora ahora), que no haga falta una entidad centralizada que certifique sino que  cada transacción que se pueda validar por la propia estructura del sistema. Por supuesto que en vez de creer en el certificador tenés que creer en científicos y en tecnologías que no entendés. 

En una entrevista decís que el aprendizaje maquínico «proviene de un interés de la comunidad científica en su conjunto; no responde a intereses particulares de países, ni de unas corporaciones». ¿Es tan así?

Hoy lo que ocurre es que la producción actual de machine learning se hace mayormente en corporaciones. Por dos temas: el tema poder de cómputo y el tema acceso a datos. Ambas están siendo apropiadas. Más aún, yo tengo una hipótesis: el gran hype con los sistemas de machine learning es que justamente son sistemas apropiables por corporaciones, mientras que el software en general no lo es. El software libre es un ejemplo. Los buenos programadores no están solo en las grandes empresas, o no necesariamente están ahí, y pueden programar muy bien. Pero la tecnología del machine learning, en cambio, requiere grandes sistemas de cómputo y acceso a grandes datos entonces esa producción de datos y ese poder de cómputo solo está en grandes corporaciones. Y con acceso a datos no me refiero a bases de datos, a tener guardado un disco con datos, es más que eso: es acceso a la producción diaria de datos. 

Con lo cual se podría invertir la causa y el efecto: esta tecnología está siendo impulsada porque es apropiable. Mientras que la programación en sí no lo es. Cualquier programador con una computadora común y un Linux en su casa puede programar cosas maravillosas. Igual que cualquier empresa grande. 

¿Sería como una transición del artesanado disperso a la industria concentrada?

Eso sería similar a algo que se llama «ingeniería de software», que se puede criticar o no, pero existe, y es una la forma de producir grandes programas a partir de una organización logística, necesita una estructura colectiva para hacerlo. En el caso del machine learning, es más que eso porque no es solo la industria, sino también es otra tecnología. Por usar otra analogía, sería como el paso del cultivo por  productores agropecuarios a la gran industria de la semilla: tiene más rinde pero solo la pueden desarrollar las grandes empresas, entonces terminan imponiéndose. Ese es el cambio, es una tecnología que solo la pueden hacer los grandes. 

El gran hype con los sistemas de machine learning es que justamente son sistemas apropiables por corporaciones, mientras que el software en general no lo es

Además de investigador, sos docente universitario y gremialista. Más allá de la pregunta por «el futuro del trabajo», que es demasiado general, ¿cuáles pueden ser los desafíos del trabajo docente y académico ante estás nuevas tecnologías?

Hay unos cambios que tienen que ver con la productividad en general y también con la docencia, pero eso muchas veces es más una maldición que una oportunidad porque sabemos hacer determinadas cosas y se está arrasando con ese saber hacer. Un poco lo que Bernard Stiegler llama la proletarización. Hay una proletarización también de la docencia. 

Yo tengo mucha experiencia como docente de alumnos de computación, que son como la avanzada del tipo de alumno que estamos teniendo: un alumno que no aprende necesariamente como antes, sino que están en un juego constante de cosas de distintas fuentes y con una dificultad grande, tanto ellos como nosotros, para poder acompañar eso, para hacer una síntesis de esas cosas en algo que en el aprendizaje de la ciencia es un aprendizaje de teorizar bien, digamos, de comprimir las cosas en principios simples. Frente a esto hay una especie de dispersión. Creo que la dispersión es el signo de la época: de esta época de estos últimos cinco o seis años en general y también ocurre con los alumnos hoy.  Esa dispersión frente a la enorme multiplicidad de fuentes y tipos de información, y la dificultad de sintetizar en las mentes lleva, también, a una docencia que es por ahora muy incierta, y que las reacciones son diferentes.

Frente a esta interpelación de una novedad radical, hay siempre, por lo menos, dos tipos de reacción: la conservadora que va a decir «defiendo y sostengo lo que se venía haciendo y trato de ponerlo en valor» y otra que dice «bueno, me voy por acá y me dejo ir con distintas variables y me vuelvo un poco fascinado con esta cosa o trato de entender». Hay muchas variantes, pero hoy en la docencia una reacción muy común es la conservadora. Hay un wishful thinking de que esto no debería estar o no debería ser así y todo lo que sea así no sirve para nada. Frente a eso, entonces, se produce una especie de reafirmación compulsiva de algo que efectivamente ya no está teniendo sentido socialmente. Ese es un problema que veo mucho en la docencia. Se lo digo a mis colegas y quieren colgarme. Mis compañeros políticos, mis colegas, mis compañeros en el gremio no siempre están de acuerdo con esto. 

Yo pienso que hay futuros que incorporan todas estas formas tecnológicas, que aceleran su transformación, y que sostienen principios más emancipadores. No hay un sometimiento y una proletarización como único camino. Stiegler también lo dice, pero es tan lúgubre en su manera de hablar, le dedica tanto tiempo a mostrar el problema de la automatización y de la proletarización de las prácticas cognitivas, que hay que buscar en esa lectura: que hay futuros buenos, la desautomatización de los procesos cognitivos es una posibilidad.

¿Los sindicatos docentes tienen una estrategia ante este proceso?

Deberían tenerlo y no lo tienen. Me dediqué a intentar que lo tuvieran y no encuentro la forma. Mi línea es: la universidad tiene que hablar del mundo, hablar del país, hablar de los problemas que tenemos y dejar de autoconsolarnos, de decir «qué pobres que estamos», lo cual no es falso, solo que me parece deberíamos tener una estrategia que tiene que ser mucho más de disputa de sentidos con este gobierno, que es el emergente de un neo-oscurantismo de derecha. Frente a un neo-oscurantismo la estrategia tiene que ser otra y es combatirlo. Combatir el oscurantismo es algo que hemos hecho desde el 1200.  Entonces, ¿por qué no hacer eso como estrategia política?

No tengo líneas claras o directas, pero efectivamente se está transformando la práctica: todos tenemos una aula virtual, hay grupos con los cuales nos comunicamos. Eso se está empezando a aprovechar un poco pero a regañadientes y como una especie de maldición que nos cayó. Hay pequeñas cosas por las que emerge un gran malestar y hay que ponerse delante de la bola. No hay que venir revolcándose atrás de las cosas, como venimos. Hay mil posibilidades con esto, pero hay que asumirlo como un nuevo desafío en una nueva forma de pensamiento didáctico también.

Mariano Zukerfeld compartió un informe de Edelman Trust Barometer, una consultora internacional, que mide la resistencia a la innovación según ideología política, género, etcétera, en distintos países. Argentina es el país en el que la izquierda está más en contra de la innovación; y la derecha, más a favor. Hay una izquierda folk que se opone al avance tecnológico, siempre lo ve como una amenaza, siempre sospecha. Esto ocurre también en la docencia: frente a los proyectos de, por ejemplo, hacer carreras más flexibles, el progresismo universitario se opone drásticamente a eso. Me resulta sintomática esa resistencia a la transformación. Hay un problema y necesitamos pensar eso revolucionariamente desde nuestro espacio, de la izquierda universitaria o como se llame, o del campo popular. Pensar una educación por venir que no son los cinco años estudiando, para bien o para mal, pero no está funcionando hoy. Por lo menos para mí es claro que el tipo de conocimiento que se está produciendo hoy y que se va a seguir transformando en el futuro cercano no se adecua a ese tipo de formación. 

El signo de la época es la dispersión frente a la enorme multiplicidad de fuentes y tipos de información, y la dificultad de sintetizarlas en las mentes, de teorizar, de comprimir las cosas en principios simples

Recién dijiste que la dispersión y el volumen de información crean una dificultad para comprimir datos en principios simples, sintetizar teorías. Me imagino que eso también plantea un problema para la investigación, para el pensamiento mismo.

Efectivamente. Esa es también una idea de Stiegler. Él dice que la proletarización de las mediaciones digitales, la exteriorización de la memoria digital, produce una aceleración tal que de alguna manera poder pensar se vuelve un problema, no está garantizada la posibilidad de poder pensar esa aceleración de la propia producción del conocimiento. Chris Anderson plantea otra idea, la del fin de la teoría, y dice que lo que hay es procesamiento de datos, entonces no hace falta teorizar, simplemente veamos lo que dicen los datos. Eso es estrictamente falso porque, en realidad, en cualquier procesamiento de datos hay algunas meta-categorías, eso qué es un dato ya te orienta a dónde va la cosa. 

No todo es un dato para todo: el dato es relativo para los programas. Para el chatgpt un dato es una entrada lingüística. Un dato tiene que ser un dato para ese programa. Hace unos años tipear en un teclado no era un dato, hoy sí, ¿por qué? Porque hay programas que en base a eso te perfilan y, en base a esa información, pueden vincularte o relacionarte con otros que hacen lo mismo y, de pronto, descubre cómo dicen esto. Descubren que hay una correlación altísima entre a ir a hacer clic en un aviso de Nike y ser lesbiana. Obviamente que esto es algo que no está en ninguna visión antropológica o de género, sin embargo, parece que dio eso algún estudio que hicieron. Es decir que eso de dar clic en una un aviso de Nike no era un dato y menos un dato de género, pero  parece que de pronto se vuelve un dato. 

No todo es dato, es decir, no sacamos los datos de las cosas, sino que es un programa lo que convierte a algo en dato. El dato, entonces, es relativo al tipo de programa. Cuando uno programa, está programando para que una cosa use ese dato, por lo tanto ya hay una teoría o una proto-teoría ahí dando vueltas.

¿Es posible recuperar esa capacidad humana de pensamiento sintético, de teorizar en las condiciones actuales?

Hoy digamos que un pensamiento sintético tiene que ser un ensamblaje del humano y la computadora. Tiene que haber una comunión. O formas de comunión diferentes. Depende del programa. Depende del humano también. Estamos viendo lo humano como demasiado homogéneo y no es tanto tampoco. 

¿Te consideras un transhumanista?

Me considero un antihumanista, o cercano a esa escuela de pensamiento. Hay un ingeniero y filósofo francés que se llama Jean-Pierre Dupuy, autor de uno de los mejores libros sobre cibernética: La mecanización de la mente, y se describe a sí mismo como antihumanista. Y tiene un diálogo con Katerine Hayles, en el que él le dice: «yo me defino como antihumanista; si hubiera conocido tu trabajo antes, me llamaría posthumanista».

Creo que hace falta una evolución de la humanidad, una coevolución. Eso está en proceso a los tumbos. Hay que orientar ese proceso entre mente y máquinas. Hay que orientar esa coevolución políticamente pero, también, cognitivamente y colectivamente. Nueva forma de vinculación entre mentes y computadoras, y que esa vinculación también sea colectiva. Ahí hay un proceso que hay que trabajar. Para mí ahí está la política por venir y, por venir no dentro de un siglo, sino dentro de un lustro.

Sería como desengancharse de la evolución por selección natural y empezar con el diseño inteligente. 

Claro, un poco así. Dennet plantea una especie de distintas dimensiones en el diseño. La selección natural es una búsqueda aleatoria, una selección por adaptación, por adecuación. Ese es uno de distintos ejes, la inteligencia puede ser otro, puede ser parte del diseño. Simplemente se desplaza un poco del otro eje, de la selección natural. No es que lo niega: esa dicotomía es una falsedad del oscurantista. Pero uno puede ver que hay formas de diseño que van moviéndose. Estamos en un momento de un eje donde hay que incorporar la evolución, la coevolución, así cultural, pero que, efectivamente, se sobreimponen sobre las biológicas, tecnológicas y también sobre cualquier fuerza evolutiva hoy. 

Los libertarios son inviables porque no se preservan en el tiempo. Son caóticos, se consumen en la propia producción y así van transformando el mundo, rápidamente. Mientras que el peronismo tiene un sistema extremadamente fuerte y viable, pero su acción sobre el mundo hoy en muy poca 

Imagen editable

Hace poco dijiste que «las derechas han logrado entender mejor el contexto actual y los impactos inmediatos de las nuevas tecnologías porque no tienen el filtro de la moralidad del progresismo». ¿Cuál es la tarea política ante estas nuevas derechas, cuál podría ser la respuesta a eso?

Es la pregunta que hay que hacerse hoy. No tengo una respuesta, tengo alguna idea, incluso un poco difusa todavía, un poco dispersa. Lo que me gusta de Juan Ruocco es eso, que se está preguntando. En una charla que tuvimos los dos dijimos lo mismo: «tenemos que hacer peronismo cibernético», por peronismo entendiendo el bienestar del pueblo, básicamente, y cibernético en el sentido de que incorpore como parte de la construcción política el análisis de la variedad, de la combinatoria que implica la información que llega, es decir, cómo procesamos la información políticamente que no está separado, pero que es otra dimensión de lo cognitivo, requiere pensar organizaciones capaces de hacer eso. 

Yo creo que la unidad como camino político es erróneo, hace falta pensar la pluralidad. En clave de Alain Badiou, si querés. La idea de la organización en la cual el referente (en general masculino) es la síntesis de todas las virtudes de la organización no funciona por un tema meramente estructural para mí, porque es tal la variedad del mundo con que tenemos que lidiar que restringe la capacidad de organización a la capacidad de sintetizar en una persona. Creo que esa no va más. Creo que tenemos que tener organizaciones heterogéneas, composiciones diferentes que se puedan articular de manera más sofisticada que la referencia y la síntesis. La síntesis tiene que ser una síntesis colectiva, tiene que haber gente pensando de manera muy diferente. La derecha, los thinktanks hacen eso un poco. 

En cibernética se habla de sistema viable, es una cosa que caracterizó Stafford Beer en el proyecto Cibersyn de Chile. Sistema viable es un sistema que a la vez que opera en el ambiente y se autopreserva, se mantiene en el tiempo. Esa viabilidad, dice Beer, puede terminar en burocracia, es decir, un sistema que solo se preserva a sí mismo y pierde potencia en la acción en el ambiente. Lo que yo veo en los libertarios es un sistema inviable. No porque se vayan a extinguir sino porque no son una estructura que se preserve y crezca en el tiempo. Son kamikazes, son gente que opera sobre la realidad política de manera directa y full time: se cae uno y empieza otro. No son un sistema ordenado; de última, son desordenados.

Suena parecido a lo que Giuliano Da Empoli llama «ingeniería del caos». ¿No lo ves viable como sistema?

Son inviables porque no se preservan en el tiempo. Se consumen en la propia producción y así van transformando el mundo, rápidamente. Mientras que el peronismo tiene un sistema extremadamente fuerte y viables, pero su acción sobre el mundo hoy en muy poca. Está gastando la mayor parte de su esfuerzo en la famosa interna, que es su viabilidad. El caso de Alberto Fernández fue el ejemplo más patente: era un sistema de impedir la acción. Era como la ciudad absurda de El inmortal de Borges, donde los distintos subsistemas, en lugar de tratar de colaborar en una transformación, colaboraron en que nada ocurriera. Era un problema cibernético.  

Para mí en un sistema cibernético hay que poder pensar como tal colectivamente, es decir, cómo articulamos un sistema que sea viable, que se pueda sostener, pero que tenga una acción potente en el ambiente de nuevo. Hoy no lo tenemos. Y también es necesario que ese sistema cibernético pueda disputar con estos sistemas inviables pero super potentes en la acción, en el tiempo. Es el no-sistema, o el sistema caótico de los libertarios actuales. 

Me decía un amigo que estuvo en Estados Unidos durante las elecciones que el Partido Demócrata es la organización política más rica del mundo y no supieron cómo hacer para contrarrestar el efecto Trump, que es una política aluvional, precaria y barata. En la primera elección Trump le ganó ganó a todos los medios que apoyaban a Hillary Clinton con 40 millones de dólares, un edificio, un guionista y dos o tres bandidos.

¿Cómo se construiría un sistema cibernéticamente viable en términos políticos? ¿Cuál sería el tipo de organización, de sujeto a movilizar? 

Uno de los principales problemas que hay que resolver cibernéticamente es una subjetividad política potente: ¿cómo se construye la subjetividad política hoy? No cómo se construyó hace 30 años, sino hoy. Y el referente, o la referente, no está funcionando como tal. Nuestras fuerzas políticas están siendo anacrónicas en su concepción y en su autoconcepción.

Hace falta una nueva empiria y una capacidad de que eso ordene las cosas. Tenemos tradición de eso, lo hicimos. Stafford Beer decía que la gente común ve una amenaza en las computadoras y en realidad es su única esperanza. Y eso nos pasa con nuestros militantes. Hoy hace falta asumir ese desafío desde el espacio político. Aprovechar que hoy que todo deja huella digital en todos lados y de esa huella sacar conclusiones y llevarla adelante. Que es lo que la derecha hace muy bien también. Podemos hacerlo, tenemos las herramientas al alcance de la mano. 

Incluso, volviendo al tema de la Universidad, gracias a un curso que dio un investigador húngaro, descubrí que en la Facultad de Matemáticas, Astronomía y Física de la UNC hay al menos tres físicos haciendo modelos de sistemas complejos de Ciencias Sociales. Por supuesto nadie lo sabe, y en Ciencias Sociales, no solo no saben que existe, sino que no les interesa. Yo me propuse como objetivo el año que viene poder juntar esas cosas y tener espacios para que dialoguemos desde distintas posiciones. Todo esto está cambiando el perfil del conocimiento sobre el mundo. 

El sistema de patentes y propiedad intelectual está deteniendo las fuerzas productivas. Puede ser uno de los caminos por los cuales el capitalismo tenga que dar lugar a otra cosa

Para cerrar te propongo un ida y vuelta rápido de referentes muy citados en la discusión pública sobre tecnología.

Dale.

Éric Sadin

Es todo lo está mal en términos filosóficos. Encima yo traduje el primer libro de Sadin. Todo lo que está mal significa que es una especie de humanismo recalcitrante. Por supuesto que hay que leerlo y ayuda, pero si le crees algo, cagaste.

Shoshana Zuboff 

Dice cosas que son razonables pero su mirada es extremadamente determinista, tiende a pensar que esto es un camino ineluctable y todo lo contrario, me parece que hay que poder encontrar los matices. Le pasa lo que le pasa a mucha gente que no conoce la tecnología en serio, que piensa que la tecnología de la programación es parecida a las tecnologías industriales. Entonces fija demasiado lo que construye. 

Yuk Hui

Es muy interesante lo que hace. Metió la pata muchas veces, pero meter la pata es parte de pensar. La introducción de Recursividad y contingencia es maravillosa, me parece lo mejor que leí de él, aunque después no cumple tanto con eso. El trabajo sobre el idealismo alemán es interesante pero me aburre un poco, porque tampoco me interesa tanto Schelling o Fichte. Y la parte de Turing tiene muchos errores. Algún día me voy a tomar el trabajo de armar una crítica de eso. Aunque me da pena reventarle así toda una parte de su libro a alguien que considero valioso en todo lo que está haciendo, pero bueno. 

Benjamin Bratton

Me encanta Bratton. The Stack me parece impecable, hay mucho ahí para pensar, es un libro para sacarle mucho jugo. Después no lo seguí tanto más. A The New Normal no lo leí todo, pero sí leí Terraformación, que es como el libro más propagandístico de él. Pero The Stack es un gran libro.

El tecnofeudalismo de Cédric Durand 

Es interesante pero no estoy tan convencido de que eso funcione como tal, digamos. Yo creo que el tema de las distintas fuerzas productivas de la tecnología es más dinámico. Si bien tiene muchas cosas para decir del presente, le faltan algunas y las cosas no van a evolucionar necesariamente para ese lado.

El tecnofeudalismo de Yannis Varoufakis

Es más divertido pero parecido, mismo problema. Parecido en el sentido de que es algo que, de nuevo, describe alguna dimensión del presente pero que no se va a producir necesariamente.

El tecnoceno de Flavia Costa 

Me gusta. Es un concepto útil para entender la época. Como mirada global, está bien ubicado. Le podés discutir algunas cosas. Cuando habla de la metatecnología le da demasiada importancia a la IA como especificidad. Yo creo que la metatecnología es la mediación computacional en general, la IA es solo un momento de historia. Me parece que Flavia se concentra demasiado en la IA como novedad porque es comunicóloga, no es tecnóloga. La IA es el momento cuando la mediación computacional cobró vida social, se volvió algo omnipresente. El machine learning no es la gran cosa, es un avance, pero que se basa una cantidad de otro avances. No es casualidad que la IA no se produzca por la IA, los programas que producen modelos de IA son programas tradicionales. 

Yuval Harari

Me aburre. Igual que el otro: Byung Chul Han. Me parece que son para la tribuna. Nada de lo que dice me parece interesante. 

Nick Bostron

No comparto su lectura de hacia dónde va la humanidad. Hay algo que no está muy bien ahí. Me parece un provocador, aunque se basa en preguntas que son válidas y ciertas. Aunque suene paradójico, me parece demasiado humanista Bostron. 

 Nick Land

Land me parece mucho más interesante, el problema que tiene es que es muy capitalista. Yo te digo que hay que leer a Nick Land y a Perón. Hay que hacer ese cruce. 

(Supernova agradece a Silvana Aiudi su colaboración en la edición de esta entrevista)