Tecnología política
La agenda social actual incluye cada vez con más frecuencia a filósofos que alertan sobre las derivas distópicas que conlleva el desarrollo de la IA y a cientistas sociales que denuncian los sesgos de homogeneización cultural que realizan los grandes modelos de lenguaje (LLM). La presente nota se aparta de esa tendencia para plantear un abordaje político de las tecnologías y una aproximación cosmovisional a la IA con derivas disciplinares, pedagógicas, institucionales y generacionales que abren un debate proyectivo sobre la disputa de sentido y de poder en la sociedad informacional.
por Fernando Peirone
Uno
La secuencia histórica que se origina con el proceso de industrialización y la Revolución Francesa junto a la expansión territorial del capitalismo, puso en marcha una complejización geopolítica, demográfica, tecnológica, económica y social con derivas jurídicas, institucionales, culturales y epistemológicas, que excedía largamente la capacidad de respuestas de la época. Por entonces la filosofía moral promovía la independización de la religión y aportaba los primeros fundamentos normativos para la conformación de los Estados modernos, pero le costaba despegarse de una concepción dicotómica, atada al bien y el mal, lo correcto y lo incorrecto, el deber y la virtud. Ese lastre la limitada para interpretar, abordar y procesar la diversidad, el alcance, el apremio, y los niveles de afectación que presentaban los problemas emergentes. A partir de lo cual, se puso en marcha una reestructuración del saber donde se combinaron factores de poder con necesidades políticas, demandas institucionales y la inscripción filosófica del Renacimiento. De esa intersección surgió la clasificación de los campos del saber que consolidaron al positivismo científico y permitieron justificar el modelo de autoridad y de gobernanza que constituyeron a los Estados nacionales, surgidos con la Revolución Francesa y expandidos con las independencias americanas.
Ese diseño epistemológico-político logró desplazar a las monarquías y separar al Estado del poder eclesiástico, y también cualquier otra noción de realidad última que no sea la razón. Es decir, consolidó a la era secular como un orden social con una axiomática laica; delimitó el mapa disciplinar de la modernidad que —con escasas variaciones— sigue estructurando las unidades académicas de la gran mayoría de las universidades del mundo en ciencias exactas, ciencias humanas, ciencias naturales y ciencias sociales; e instituyó a la cosmotécnica que todavía caracteriza al expansionismo nor-atlántico. Hoy, dos siglos y medio después, sabemos que la tecnología atraviesa todas las dimensiones de esa cartografía disciplinar, sin excepción; pero a pesar de esa consciencia, no ha podido trascender el estadio de la instrumentalidad y acceder al dominio científico.
La concepción reduccionista de la tecnología se remonta a la matriz logocéntrica de la antigüedad clásica, cuando la tekné (τέχνη) refería al saber práctico, y sus incumbencias a un único ámbito de pertenencia: la acción. Es decir: la doxa (δόξα), donde promiscuamente se mezclaban la opinión, el sentido común y las creencias; el submundo donde las ilusiones y las habladurías se asumían como ciertas o como si fueran la realidad misma. El reverso de la docta (σοφή) donde el conocimiento era el resultado de una fundamentación sistemática, metódica y rigurosa; donde el sentido estaba tutelado por la razón y el pensamiento meditativo; y donde, por cuestiones de principio, la corporeidad sintiente siempre estuvo convenientemente excluida. Los prejuicios que en la actualidad rodean a la cultura digital son heredados de esa tradición cosmovisional.
Dos
Ingresando a la segunda mitad del siglo XX, la persistente degradación ontológica de la tecnología llamó la atención del ingeniero francés Gilbert Simondon, quien en 1958 advirtió que la cultura dominante se ha constituido en un sistema de defensa contra la técnica, como si los objetos técnicos fueran ajenos a los humanos. Dos décadas después, la sociología, apoyándose en la teoría constructivista, presentó la perspectiva socio-técnica. Los trabajos de Wiebe Bijker, Michel Callon, Thomas Hughes, Bruno Latour, y Trevor Pinch, entre otros destacados representantes de esa corriente, hicieron que la tecnología perdiera el velo de aparente o pretendida neutralidad que la presentaba como un hecho científico, autónomo e independiente. A partir de allí, pasó a ser entendida como un actante que gravita activamente dentro de una red de relaciones, donde expresa y adquiere gravitación a través de la dinámica de sus interacciones y asociaciones. Consecuentemente, la técnica empezó a ser observada en un marco de relaciones que está indisolublemente vinculado a las alianzas socio-técnicas, los intereses sectoriales y los procesos de legitimación social que participan de la interacción. Seguir prescindiendo de las construcciones sociales que le dan sentido a las tecnologías hubiera significado ignorar el modo en que determinan ventajas, dominios y posiciones de acumulación. Hernán Thomas, un referente ineludible de la perspectiva socio-técnica en Argentina, fue uno de los que más hizo para aclarar que “la tecnología no es neutral, no es universal, no es lineal y no es evolutiva. La tecnología está situada, responde a grupos sociales y a intereses concretos”.
Los prejuicios que en la actualidad rodean a la cultura digital son heredados de una tradición clásica que relegaba la techné a lo práctico y lo separaba del conocimiento como resultado de una fundamentación sistemática, tutelada por la razón y exluía a la corporeidad sintiente

Más recientemente, el filósofo e ingeniero informático chino Yuk Hui amplió esa perspectiva presentó a la “tecnodiversidad” y la noción de “cosmotécnica”, interpelando la mirada “tecnocéntrica” de Occidente y exponiendo los múltiples prejuicios sobre tradiciones milenarias como la China, la hindú y nuestras propias culturas precolombinas.
Nada de eso ha sido suficiente, sin embargo, para detener —al menos por ahora— la antigua fuerza inercial que sigue presentando a la tecnología como autónoma respecto de los actores sociales, y por lo tanto como una ajenidad sobre la que se proyecta una amenaza constante. Basta con ver lo que reproducen Hollywood, la ciencia ficción y la literatura distópica, haciéndose eco de estos imaginarios; pues, aunque no los crearon ni son responsables de esa construcción social, en muchos casos funcionaron como sus mediadores culturales.
Tres
La agenda social está incluyendo, cada vez con más frecuencia, a filósofos que alertan sobre los riesgos que conlleva el desarrollo de la IA, y a cientistas sociales denunciando la homogeneización cultural que perpetra el ChatGPT universalizando un sesgo blanco, patriarcal y nor-occidental que desconsidera al resto de las cosmovisiones, del mismo modo que estigmatiza barrios populares, etnias, desigualdades estructurales de género y religiones alternativas. Nadie diría que no son misiones encomiables o que no inspiran admiración, por el modo en que generan conciencia social sobre los riesgos a los que nos enfrentamos como sociedades. Especialmente en un mundo que se revela temerario, sino extraviado. Pero tampoco deberíamos olvidar que la filosofía es algo más que expresar miedos e infundir desesperanza social cada vez que se percibe un futuro oscuro. Si no Copérnico, Pico della Mirandola y Giordano Bruno jamás hubieran arremetido contra la oscuridad del orden medieval. Su osadía fue fundamental para que se abriera el camino, primero del Renacimiento, después del sujeto cartesiano y posteriormente de la reconfiguración político-económica que sobrevino secuencialmente con el Contrato Social, la Revolución Industrial, la Revolución Francesa, la creación de los estados liberales y las democracias modernas.
En el mismo sentido, tampoco deberíamos olvidar que las Ciencias Sociales surgieron con el afán de generar marcos analíticos que permitan descifrar las formas del transcurrir común; pero también de identificar y visibilizar situaciones socialmente generalizables, sobre todo aquellas que son reprimidas, desoídas o desalentadas por el discurso hegemónico, lo cual —por supuesto— no ocurre sin una sintonía sensible con la experiencia social.
Kant, adelantándose al entusiasmo futurista y a la pretensión omnicomprensiva de la Ilustración, decía que una sociedad alcanza la mayoría de edad cuando se sirve de su propio entendimiento para pensar el modo en que va a habitar el mundo —lo cual, por supuesto, incluye la consideración de los efectos de ese estar en el mundo. En la sociedad informacional ese desafío implica —entre otras cosas— deconstruir la idea que tenemos de sociedad, de conocimiento y de tecnologías. Es decir, del modelo de poder y de convivencia que viene versionando el mundo desde hace varias generaciones: con un relato supremacista de la especie humana; con el amonedamiento de lo sensible (lo cual incluye la performación de los cuerpo y la instrumentalización del universo afectivo); con el positivismo científico como forma de dominación epistémica con pretensión universalizadora; con una dependencia de la racionalidad logocéntrica que hoy obtura una resignificación del mundo de la vida; y, por supuesto, con la degradación ontológica y política de la técnica. Ahora veamos dos actores que, desde distintos lugares, rompieron estas barreras epistémico-políticas.
El feminismo es uno de los actores sociales que lidera esa deconstrucción. Lo hace cuestionando y exhibiendo los cimientos patriarcales que siguen vigentes en la mayoría de las culturas actuales. De hecho hoy compone un complejo actor global y multicultural que intersecciona diferentes acciones colectivas: advirtiendo sobre los riesgos de seguir contaminando el planeta, denunciando las desapariciones que produce el narcotráfico, repudiando los encarcelamientos por aborto, pidiendo que no las golpeen más. A contramano de una institucionalidad que sigue desoyéndolas, las mujeres construyeron su propia agenda y con el hashtags #niunamenos sacaron millones de personas a las calles e intervinieron la agenda mediática, política, legislativa, cultural y judicial. Utilizaron la nueva gramática tecnosocial para expresar una voluntad colectiva y transversal. Mientras tanto, hay que decirlo, la que brilla por su ausencia frente a esa interpelación, es la agenda de los varones. Pero sigamos…
Simondon, Deleuze y Guattari, Stiegler y otros representantes de la perspectiva socio-técnica identificaron y reconocieron que la tecnología funciona como una reticularidad transversal en lugar de “ser” una mera instrumentalización del mundo sin reflexividad
Simondon, Deleuze y Guattari, Flusser, Lévy, Stiegler y los representantes de la perspectiva socio-técnica conformaron un actor que, de manera escalonada, viene cumpliendo un rol análogo en el ámbito científico-académico. Puede parecer una comparación forzada, pero fue realmente importante la tarea que realizaron identificando y reconociendo que la tecnología funciona como una reticularidad transversal en lugar de “ser” una mera instrumentalización del mundo sin reflexividad. Sus exploraciones rompieron la endogamia científica y lograron acompasar la experiencia técnica con el mundo de la vida. Son la contracara efectiva, tanto del tecnooptimismo ramplón como del solucionismo tecnológico que vende Silicon Valley.
Cuatro
En este marco, lo que llamamos Inteligencia Artificial se parece más a un manotazo resiliente del logocentrismo, que a una innovación epistémico-cognitiva. Analicemos por qué. Los Grandes Modelos de Lenguaje (LLM) —la Inteligencia Artificial General es sensiblemente diferente— son motores de inferencia estadística que están entrenados para reconocer y generar patrones complejos a partir de los datos existentes, que proceden de toda la producción textual humana. Digamos que funciona como una máquina probabilística capaz de realizar procesamientos masivos con billones de operaciones por segundo. Ese es el mecanismo que le permite componer las respuestas para los usuarios en un lapso de tiempo muy breve, inusitado. Ahora bien, si a esto lo despojamos de las hipérboles y del pensamiento mágico que suelen recubrir a la Inteligencia Artificial, lo podríamos describir como un refinamiento de la operatoria comparación-clasificación que históricamente caracterizó al logocentrismo y que hoy lo reafirma como él dispositivo de ordenamiento, jerarquización y construcción de sentido social. En definitiva, se trata de un procedimiento maquínico que extiende, perfecciona, potencia y consolida la arquitectura de sentido binario-patriarcal que es constitutiva del logocentrismo, justo en el momento que su montaje cosmovisional atravesaba una crisis significativa. En ese sentido, el logocentrismo pasó de estar con respirador artificial a tener una Inteligencia Artificial que lo mantiene vivo y funcional. ¿Por qué decimos que el logocentrismo estaba en una situación cuasi terminal y que ahora, mediante la IA, consiguió una prórroga de vida? Porque su andamiaje epistémico, como en el siglo XVIII, tiene serias dificultades para ofrecer respuestas y construir un horizonte de sentido efectivo, pero esta vez ante la complejización que sobrevino con el orden informacional. Me refiero a las serias limitaciones de la razón como principio de inteligibilidad y sustento modélico de organización social, tanto para gestionar la escala demográfica que se agolpa en las zonas urbanas de nuestro planeta (en 2025 es el 58,1%), como para administrar el escenario socio-técnico que se desplegó con la cultura digital. También me refiero a los obstáculos de la cultura enciclopédica —también académica— para pensar un proyecto crítico - emancipador alternativo, que trascienda el modelo de la Ilustración. Esto es un desafío y una oportunidad para la Filosofía y las Ciencias Sociales, tanto para trascender el estadio de diagnosticación como para generar conocimientos socialmente válidos. Veámoslo en cosas concretas.
Así como a comienzos de los noventa, la CEPAL intentó poner en marcha una Transformación Productiva con Equidad (TPE) ante la caída del muro de Berlín y el advenimiento de un mundo global, este es un buen momento para explorar y profundizar LatamGPT. En sintonía con lo que plantea el Manifiesto tecnopolítico de Biset, Blanco y Costa, la posibilidad de tener un modelo de lenguaje de código abierto, gratuito, colaborativo y hecho en América Latina, con la participación de universidades y gobiernos de toda la región, es un acontecimiento socio-técnico relevante, estratégico y visionario. Porque así como no desaparecieron los mitos en el pasaje de la cultura oral a la escritura, tampoco desaparecerá el logos ni su relevancia individual, social, cultural y productiva en el tránsito hacia la cosmovisión que vaya a reemplazarla. Y porque en un proceso de complejización y transfiguración como el que atravesamos, se alteran todas las categorías orientativas que fueron desarrolladas bajo el marco epistémico de la modernidad y que hoy siguen naturalizadas; del mismo modo que se reconfiguran las categorías, los métodos y los criterios de validación que utilizamos para interpretar la realidad y producir conocimiento socialmente válido. Un ejemplo: lo que entendemos por política, junto a todo lo que designa la palabra política, debe revalidar socialmente sus incumbencias, igual que su fundamento teórico y sus formas de representación. Lo cual hace que la administración de lo común se vuelva particularmente desafiante, tanto para comprender como para actuar en este tiempo.
Los Grandes Modelos de Lenguaje (LLM), en definitiva, se tratan de un procedimiento maquínico que extiende, perfecciona, potencia y consolida la arquitectura de sentido binario-patriarcal que es constitutiva del logocentrismo, justo en el momento que su montaje cosmovisional atravesaba una crisis significativa.
En ese contexto, una IA latinoamericana donde dispongamos de todo aquello que fuimos y somos, con los universos epistémicos de las cosmovisiones precolombinas, con el repertorio de saberes populares que nos mantuvieron en pie durante los últimos quinientos años, es un reservorio que los padres del decolonialismo hubieran anhelado y agradecido. La idea, dice Álvaro Soto, Director del Centro Nacional de Inteligencia Artificial en Chile (CENIA), es que cuando le preguntemos a LatamGPT sobre temas relevantes para nuestra región, sus respuestas sean acordes a lo que fuimos y lo que somos. Para poder abordar, analizar y ubicarnos en el actual reordenamiento del mundo en base a teorías, metas, estrategias, saberes, prácticas, tradiciones y formas resolutivas que estén referenciadas en Latinoamérica. Es casi un plan de sinceramiento, para devolver a Europa las sombras, porque es su lugar de origen, y el futuro distópico a EEUU, porque es su promotor, su beneficiario y su dependiente. Visto de esa manera, también se convierte en una oportunidad para repensar nuestra educación.
Cinco
En nuestro país, la educación a distancia fue un campo que debido a su vínculo con la tecnología, la logística y la ubicuidad, convirtió a las tecnologías en un objeto de estudio que ayudó a superar prejuicios y a desarrollar una inflexión crítica acerca de su uso y su concepción. El desarrollo teórico de Edith Litwin y Beatriz Fainholc sobre la tecnología educativa, contra la fetichización, el determinismo y la visión instrumentalista de la tecnología, surgió de allí. Lo mismo que la pléyade de investigadoras que las sucedieron y que, en esa línea, siguen produciendo trabajos fundamentales. Pero la masificación de las tecnologías informacionales y la rápida asimilación social de la IA plantean otro tipo de desafíos para la educación.
El estrecho vínculo de los jóvenes con las tecnologías informacionales permitió el desarrollo de saberes tecnosociales que resultan fundamentales para interactuar en la sociedad actual y que, en términos de Emilia Ferreiro, configuran un nuevo objeto cultural. No sólo porque tiene valor de uso social, surge del esfuerzo colectivo y se adquiere a través de la interacción social, sino también porque gravita de manera decisiva en el mundo de la vida. Más aún: gravita en la composición del orden poslogos. Todo lo cual implica una dimensión socio-técnica que interpela al campo educativo desde otro lugar.
Por ejemplo, frente a la adopción de la gramática hipertextual que usamos para navegar Wikipedia o para postear en cualquier red social, ¿el sistema educativo debe seguir concentrando esfuerzos en la comprensión lectora de los pibes o, en paralelo, debería componer un método de lectocomprensión digital, interfásica e informacional?, ¿debe seguir reproduciendo una formación lineal, contenidista, memorativa y profesionalizante en un contexto donde todo eso puede ser fácilmente reemplazado por el ChatGPT? El avance informacional está incitando a la escuela a identificar los desafíos epistemológicos que plantea la cultura digital y a generar estrategias metacognitivas que provoquen una autorreflexión guiada sobre el alcance, la aplicación y las derivas —sociales e individuales— del nuevo objeto cultural y de la IA. Porque si bien la lectoescritura no ha perdido vigencia ni importancia, existe una narrativa emergente que está ampliamente asimilada, tanto en términos sociales como productivos y culturales.
En este sentido, por trágico que suene, la educación actual sólo tiene futuro si —con el apoyo de un Estado resignificador— genera las condiciones de posibilidad para una reflexión crítica y deconstructiva de la técnica; si se aviene a un debate con las juventudes sobre la sociedad que queremos.
En sintonía con lo que plantea el Manifiesto tecnopolítico de Biset, Blanco y Costa, la posibilidad de tener un modelo de lenguaje de código abierto, gratuito, colaborativo y hecho en América Latina, con la participación de universidades y gobiernos de toda la región, es un acontecimiento socio-técnico relevante, estratégico y visionario

* Este texto es una transcripción ampliada de la conferencia brindada el 27 de agosto de 2025 en el “Seminario de Ser Humanx en tiempos de IA - Laboratorio de IA” del CEIICH (UNAM) con el título Retos Latinoamericanos de las Ciencias Sociales en la Sociedad Informacional. / Prospectiva.