Documento HTML

DOI: 10.60728/t5bzrw41

Habitar la democracia: reflexiones en tiempos de Inteligencia Artificial

Inhabiting Democracy: Reflections in the Age of Artificial Intelligence

Gisela Vanina Signorelli1

https://orcid.org/0009-0004-7750-1361

Recibido 02.10.2024

Aceptado: 17.10.2025

Resumen

Este artículo analiza la Inteligencia Artificial (IA) como entorno sociotécnico (no como una mera herramienta) que produce mutaciones subjetivas –saliencia, aceleración afectiva, autonomía simulada y atajos de plausibilidad– con efectos en la vida democrática. A partir de una lectura crítica de autores contemporáneos y estudios recientes sobre gobernanza algorítmica, se argumenta que estos entornos generan una democracia reactiva –funcional a las nuevas derechas en América Latina– y nuevas formas de autoritarismo digital. Frente a ello, se propone una política de democratización de la IA en su diseño, gobernanza y trazabilidad, junto con el desarrollo de capacidades cívicas y arquitecturas afectivas participativas que fortalezcan la agencia ciudadana. La hipótesis sostiene que democratizar la IA puede contribuir a democratizar nuestras democracias, especialmente en el contexto latinoamericano, donde la defensa de lo común y la soberanía tecnológica son claves para imaginar futuros democráticos posibles.

Palabras clave: Inteligencia Artificial, mutaciones subjetivas, democracia, gobernanza algorítmica, América Latina

Abstract

This article analyzes Artificial Intelligence (AI) as a socio-technical environment (not only as a tool) that produces subjective mutations—salience, affective acceleration, simulated autonomy, and plausibility shortcuts—with significant effects on democratic life. Drawing on critical theory and recent studies on algorithmic governance, this argument suggests that these environments promote reactive democracies - which are useful for new rights in Latin America - and new forms of digital authoritarianism. In response, it proposes democratizing AI through its design, governance, and traceability, along with developing civic capabilities and affective participatory architectures to strengthen citizen agency. The hypothesis suggests that democratizing AI can help democratize democracy itself, particularly in Latin America, where the defense of the commons and technological sovereignty are central to imagining possible democratic futures.

Keywords: Artificial Intelligence, subjective mutations, democracy, algorithmic governance, Latin America

Introducción

En épocas de incertidumbre y desesperanza, es imprescindible gestar proyectos colectivos desde dónde planificar la esperanza junto a otros.

E. Pichon-Rivière

La Inteligencia Artificial (IA) dejó de ser una amenaza lejana y potencial para convertirse en una infraestructura cotidiana con efectos inmediatos sobre nuestro presente. Su devenir inevitable y su carácter ubicuo generan incertidumbre y contradicciones en múltiples campos. Este ensayo se concentra en aquellos que afectan la vida en común y los valores democráticos, partiendo de que la IA constituye entornos sociotécnicos inscritos en relaciones de poder e intereses específicos.

En particular, la expansión de la IA generativa junto a los modelos de lenguaje (LLM por su sigla en inglés), y el uso de algoritmos en plataformas digitales operan como entornos que reconfiguran prácticas cotidianas y marcos de interpretación: los algoritmos de selección, su interfaz conversacional, su verosimilitud retórica y su ubicuidad producen mutaciones subjetivas asociadas con atajos de plausibilidad, autonomía simulada, saliencia y aceleración afectiva; mutaciones que tienen efectos directos sobre la formación de la opinión pública, la intermediación de información, la toma de decisiones colectivas y, por tanto, sobre nuestras democracias.

¿Puede sobrevivir la democracia a la complejidad de la inteligencia artificial, los algoritmos, el individualismo exacerbado y la violencia de esta fase de acumulación del capital? La propuesta es analizar si es posible –en la actual “era del individuo tirano” (Sadin, 2023)– diseñar tecnologías y procedimientos algorítmicos que produzcan acercamiento en lugar de separación o que, al menos, compensen los efectos negativos de las mutaciones subjetivas hasta ahora observadas. El objetivo principal es comprender los efectos democráticos de dichas mutaciones para estudiar la posibilidad de crear arquitecturas afectivas y nuevas capacidades ciudadanas que promuevan proyectos futuros que premien la inteligencia colectiva, el deseo y la dignidad compartida, una especie de felicidad cívica moderna en sentido aristotélico2.

Desde esta premisa, sostenemos que la IA solo puede contribuir a ampliar capacidades democráticas si es democratizada en su diseño, gobernanza y trazabilidad; y que, en ausencia de salvaguardas, el entorno favorece una democracia reactiva, el autoritarismo algorítmico y las estrategias de manipulación funcionales a actores que explotan el individualismo, el malestar y el antagonismo, entre ellos las derechas radicales. Sin caer en utopías ni distopías, proponemos: i) democratizar la IA y una política del tiempo para habitar la democracia; ii) un marco operativo de capacidades democráticas; iii) salvaguardas accionables desde la afectación ciudadana para una democracia afectiva.

Los sistemas de IA han sido diseñados para servir a los intereses dominantes (Crawford, 2023). Formamos parte de un experimento global que se encuentra actualmente en fase beta. Sin desconocer los problemas que esto conlleva en la colonización de la vida y, por tanto, desde una perspectiva crítica sobre las tecnologías, buscamos virtudes operativas en la misma IA, partiendo de que su expansión no se detendrá y que su simple negación o resistencia al uso equivale a renunciar a su control democrático. Promover capacidades democráticas y ciudadanas es, así, la vía intermedia que permite gobernar el entorno.

Para ello, el ensayo se organiza del siguiente modo: primero, caracterizamos la IA como entornos y describimos las mutaciones subjetivas que esto conlleva (atajos de plausibilidad, autonomía simulada, saliencia y aceleración afectiva) presentando los efectos que dichas mutaciones tienen en nuestras democracias; segundo, repasamos el estado de desafección democrática en América Latina, estudiando el fenómeno del vertiginoso surgimiento de las derechas radicales apalancadas en las tecnologías digitales y la democracia reactiva. Tercero, proponemos un marco de democratización de la IA (diseño, gobernanza y trazabilidad) con datos situados y nuevas capacidades ciudadanas; por último, desarrollamos una propuesta de arquitecturas afectivas participativas orientadas al reencuentro necesario para una felicidad cívica y una democracia afectiva.

1. IA: gobernar un entorno

Lo primero que hay que entender es que, contrariamente a lo que el modelo hegemónico occidental promueve, las tecnologías no son neutras. Nos afectan, condicionan y generan consecuencias en nuestros cuerpos, vidas y territorios. La lógica tecnológica ha permanecido inalterada desde los inicios del capitalismo (Munn, 2025): explota el trabajo, daña la naturaleza, extrae valor, centraliza riqueza y poder. La IA no es la excepción. En esa línea, la propuesta de autores como Cortés Lagunas (2020) y Calvo (2022) es concebir las tecnologías como artefactos negociados con efectos reales y políticos sobre nuestros cuerpos y sobre nuestros sistemas democráticos.

“Las máquinas son parte del proceso evolutivo de la especie humana” (Hui, 2020, p. 165). No obstante, la ruptura que la IA supone en relación con otros inventos humanos tiene que ver con su comportamiento recursivo; es decir, reflexivo y su aparente imitación del pensamiento humano. No se trata de una nueva herramienta con un fin determinado (como un martillo, una calculadora, etc.) que se usa y se guarda. La IA es un entorno sociotécnico que rodea e impregna prácticas, tiempos, incentivos y lenguajes. Estructura lo que es posible, valioso y visible. Moldea nuestras percepciones de manera vigilante y sigilosa.

En términos de teoría de medios y sistemas, los entornos constituyen la frontera que le da identidad al sistema; mediatizan la percepción y la acción (McLuhan, 1964); se vuelven infraestructuras cuando se naturalizan y desaparecen en el trasfondo. En ese sentido, la IA generativa y los algoritmos de preferencia no asisten solamente: instituyen criterios de relevancia, fijan ritmos de interacción (inmediatez), imponen predeterminados (defaults) y personalizan el contenido, reconfigurando hábitos epistémicos y afectivos individuales y colectivos (Plantin et al., 2018; Crawford, 2023; Colamedici, 2025).

Todo ello es posible gracias a una servidumbre voluntaria (De la Boétie, 2022) sostenida con espejismos de soberanía (Sadin, 2018) por parte de los individuos. Es decir, que somos nosotros quienes les entregamos nuestros datos al sistema, en un proceso de datificación social3 sin precedentes que ha dado lugar a que algunos autores hablen de extractivismo o colonialismo de datos (Ricaurte, 2019; Crawford, 2023; Thatcher et al., 2016; Mohamed et al., 2020). La aparición de los smartphones consolidó así la penetración de la IA en un salto de escala en la personalización y modulación algorítmica (Gendler, 2024).

A esa capacidad de personalización se suma su omnipresencia en las plataformas tecnológicas que usamos a diario, cuyos desarrollos están concentrados en un puñado de empresas. Desde ellas se construye también un relato sobre las ventajas de una inteligencia que no es tan inteligente, promovido por una narrativa con peso geopolítico4. Como advierte Crawford (2023), operan fuerzas sociales, culturales, históricas, políticas y, por supuesto, económicas. Los datos no son una materia prima neutra sino artefactos políticos-sociales producidos por un ensamblaje que los toma, los selecciona y los etiqueta. La aparente objetividad de los datos encubre decisiones políticas, ya que clasificar es gobernar. Las taxonomías de modelos de lenguaje heredan y reifican jerarquías históricas (Crawford, 2023). Por tanto, también persisten las asimetrías de las relaciones geopolíticas que marcan nuestra historia colonial regional en los entornos sociotécnicos contemporáneos de IA (Ricaurte, 2024).

Desde estas perspectivas, la IA no es inteligente ni análoga a la inteligencia humana. Aunque no hay acuerdos sobre su definición, tomamos la perspectiva de la UNESCO (2025)5, que entiende la IA como aquellos sistemas capaces de simular funciones cognitivas como el aprendizaje o la resolución de problemas. Se llama artificial porque, a diferencia de la inteligencia natural, común a los humanos u otros seres vivos, que involucra conciencia y emociones, es mostrada por máquinas a través de procesamiento computacional.

Los LLM, como modelos de IA, son entrenados con grandes volúmenes de datos para estimar la probabilidad del siguiente término en una secuencia, usando una arquitectura transformer (basada en redes neuronales) que detecta patrones y dependencias del lenguaje. De ello se desprende que estos modelos no piensan ni razonan. Tampoco dialogan: simulan conversaciones. Lo que nos devuelven los modelos de LLM es una ilusión de pensamiento al procesar datos y patrones estandarizados sin ninguna intención más que su optimización. Esta reproducción de patrones lingüísticos con los que la IA fue entrenada puede predecir la respuesta más razonable en un contexto dado, pero no puede comprenderla ni intencionarla. Atribuirle intención, comprensión o empatía es un error. Sin embargo, la popularización de los modelos de lenguaje (LLM) potencia el efecto Eliza6 dada la fluidez del lenguaje, el tono de las respuestas, la memoria conversacional, la imitación de estilos, la voz sintética, entre otras características que producen una ilusión de interlocución humana, donde interviene también nuestra voluntad de antropomorfizar lo no humano (Crawford, 2023; Colamedici, 2025).

De esta manera, si la IA es un entorno, su impacto es sistémico y, por tanto, su gobernanza no se resuelve con un buen uso individual. Las mutaciones subjetivas que produce generan efectos colectivos con impactos clave en nuestras democracias. Se requiere una combinación de reglas de diseño, tiempos y trazabilidad democráticos junto con una alfabetización ciudadana crítica y afectiva.

1.1 Mutaciones subjetivas en entornos LLM

Entendida como entorno, la IA genera mediaciones predeterminadas y ritmos que moldean la formación de opinión, la coordinación y las decisiones democráticas. Basta navegar por cualquiera de nuestras redes sociales para observar la reducción de perspectivas y diversidad de pensamientos a partir de la homogeneización algorítmica, también conocida como “filtro burbuja” (Pariser, 2017)7 o “cámara de eco” que “crea la impresión de que nuestro limitado interés personal es todo lo que existe” (Pariser, 2017, p. 65). También observamos las dificultades crecientes para distinguir lo verdadero de lo falso (posverdad o verdades mediadas por algoritmos) o los riesgos que esto implica para la autonomía y el juicio crítico debido a la manipulación de datos y el sesgo de confirmación (Conill, 2019; Zuboff, 2019; Crawford, 2023). Todo ello representa un peligro para el diálogo democrático: “cada vez tenemos a nuestra disposición más tecnologías que apenas entendemos y mucho menos controlamos” (Innerarity, 2024a, p. 9).

Compartimos con Sadin (2020) que hemos pasado de la era del acceso (década 2010) a la era del exceso (década 2020), por lo cual es importante repensar nuestro vínculo con las tecnologías y su impacto en nuestra psicología individual y colectiva: las tecnologías “redefinieron la relación habitual con lo real, con los demás y con un gran número de marcos que determinaron hasta ahora nuestra vida en común” (Sadin, 2020, p. 40). Se trata, continúa el autor, de “una experiencia subjetiva en todo punto inédita: una desposesión de uno mismo entremezclada con la sensación de detentar un poder respecto de algunos segmentos de la vida que habrían aumentado significativamente» (Sadin, 2020, p. 28).

El entorno nos conduce a la dependencia o adicción. Colamedici (2025) lo denomina hipnocracia: un sistema que no censura de manera violenta, sino que manipula desde la modulación algorítmica la conciencia colectiva y nos mantiene en un estado de trance en el cual el ser es coproducido; es decir, actúa y es actuado, en una relación simbiótica con la tecnología que lo modifica recíprocamente. “La cuestión de la agencia se vuelve especialmente compleja. La acción no surge de un sujeto autónomo que decide sino de una red de diálogos entre estados subjetivos y sistemas algorítmicos” (Colamedici, 2025, p. 39).

Byung-Chul (2021) profundiza estos aspectos en su obra No-cosas. La desmaterialización y descorporización del mundo promovidas por lo digital fragmentan la vida, reducen la autonomía, ceden agencia y nos desvinculan de los otros: se destruye la comunidad. Al mirarnos menos a los ojos se reduce también, para el autor surcoreano, la empatía. Como advierte Ruiberriz (2025)8 la IA no solo produce efectos, respuestas y contenidos: produce formas de sujeto.

En ese marco nos interesa analizar cuatro mutaciones que sufrimos las personas a partir de la ubicuidad de estas tecnologías: atajo de plausibilidad, autonomía simulada, aceleración afectiva y saliencia. No se trata de vicios individuales, sino de efectos sistémicos de estos entornos. Veamos en detalle de qué se tratan y cuáles son sus efectos para la vida democrática.

  1. Atajos de plausibilidad: tendencia a aceptar como verdadero lo que suena fluido y coherente (con buena retórica), aun con evidencia insuficiente. En los LLM se potencia por el tono confiado, el cierre narrativo y la facilidad de lectura. La psicología lo asocia con el efecto de verdad ilusoria, que aumenta la credibilidad ante la repetición9. Relatos redondos simplifican causalidades y señalan culpables; el agravio moral cohesiona y legitima la hostilidad.

La neurociencia y la psicología confirman que el cerebro humano tiene dos sistemas de pensamiento: uno más rápido y automático y otro para pensamientos más complejos y que manejamos de manera más consciente. Este último requiere más energía y esfuerzo de nuestro sistema, por lo cual, para ahorrar recursos, en muchas ocasiones nuestra mente toma el atajo más fácil y usa el primer sistema. Por esa razón, nadie está exento de caer en este sesgo10.

Esto conlleva efectos democráticos claros: la verosimilitud desplaza la verificación, fragilizando la razón pública. Ganan agenda las narrativas que cierran antes que las mejor sustentadas, especialmente bajo presión temporal. De allí que cuanto más se repite una noticia, más creemos en su verdad. Un efecto claro es la viralización de las fake news11 o los deepfake12 que, una vez lanzados, aún desmentidos, no se logra contener su propagación y mantienen su potencia afectiva y política.

  1. Autonomía simulada: se trata de un espejismo de soberanía (Sandin, 2018). Es decir, creemos que decidimos por cuenta propia cuando en realidad seguimos defaults de datos; o sea, una configuración predeterminada donde el sujeto tiene poca o nula incidencia. Es consecuencia de la opacidad algorítmica. El efecto Eliza agrava esta ilusión de agencia cuando le atribuimos intención y comprensión a sistemas que solo manipulan símbolos. La obsecuencia en las respuestas de los modelos de LLM no es inocente. Se produce una delegación acrítica que es parte de la arquitectura de control y poder normalizada. Lo que Zuboff (2019) llama “poder instrumentario”.

Millones de usuarios interactúan bajo el mismo default, lo que moldea hábitos epistémicos y comunicativos, lo que Zuboff entiende como pensamiento colmena. Esto conlleva un autoritarismo algorítmico con efectos cognitivo-conductuales visibles: un poder que se ejerce sin compartirse y que es naturalizado.

Todo default incorpora un criterio normativo. Si ese criterio no es explícito ni deliberado, el sistema impone un valor como si fuera técnico o neutro. Así la contestabilidad se reduce dado que no puede impugnarse lo que no se reconoce o aparece imperceptible para el sujeto. La microsegmentación refuerza el efecto haciendo que la opción por defecto aparezca como el sentido común o mayoritario.

  1. Aceleración afectiva: ritmo de alta frecuencia (respuesta inmediata, notificaciones, picos de trending) que comprime los ciclos emocionales y reduce la tolerancia a la ambigüedad y al disenso. Se apoya en la aceleración social descrita por Rosa (2016). La inmediatez se vuelve la norma. Todo se acelera, creando una expectativa general de eficiencia asociada a la velocidad. Vivir permanentemente conectados nos aliena. El sistema impone sus ritmos: hay una falta de apropiación del tiempo vinculada con la idea de productividad. Esto reconfigura la experiencia del tiempo: aunque ahorramos tiempo con cada innovación, sentimos escasez y urgencia crecientes.

Estos ciclos se confrontan con la vida en común y la democracia que requiere de tiempos más lentos para escuchar, deliberar, revisar, elegir. La aceleración de la vida las erosiona, favoreciendo la polarización y reduciendo la disponibilidad atencional y afectiva así como la tolerancia al disenso. La aceleración técnica también es política. Nos posiciona en una democracia reactiva y dopamínica (Tschaepe, 2016) donde la libertad democrática es una ilusión mediada por incentivos digitales –más que por deliberación crítica– que se retroalimenta con el individuo tirano o atomizado.

Campañas coordinadas generan olas de indignación en horas, empujando a autoridades y medios a reaccionar antes de verificar. Estilos populistas performan una crisis permanente para mantener alta la activación (Moffitt, 2016; Casullo, 2019).

Como consecuencia, se configura así un bucle autorreforzado: la aceleración empuja hacia el atajo de plausibilidad; esto facilita la autonomía simulada que retroalimenta la aceleración.

  1. Saliencia: captura de la atención por señales de alta recompensa (novedad, emoción, conflicto), reforzada por ranking y personalización: lo saliente desplaza lo relevante. Se vincula con la economía de la atención (Kahneman, 2012) y con la formación de agenda hoy mediada por plataformas (Srnicek, 2018; Zuboff, 2019). El algoritmo aumenta nuestra dopamina para que sigamos ahí y genera efectos invisibles para influir en la toma de decisiones. Hace que nos centremos en ciertos aspectos dejando de lado otros, aun cuando sean más importantes. Hay una sobrecarga sensorial e informacional. Byung-Chul (2022) pone el énfasis en que la infoesfera nos ofrece más libertad pero simultáneamente nos confina a la vigilancia y el control.

Es parte de la estrategia de monetización de las plataformas: mantener nuestra mente ocupada, lo que las empresas tecnológicas llaman el tiempo de engagement (Pearson, 2024) y que maximizan cuanto más permanecemos conectados. Cuanto más saben de nosotros, mejor pueden captar nuestra atención –y nuestro dinero–.

La elevación de la dopamina por la satisfacción inmediata potencia la democracia reactiva a expensas de una ciudadanía crítica y de la inteligencia colectiva: “una gama aparentemente infinita de opciones de consumo, incluyendo productos, sentimientos de anticipación y satisfacción temporal, y la presunción de autovaloración vinculada a los procesos de deseo y búsqueda, alimentan la democracia dopamínica” (Tschaepe, 2016, p. 33)13.

Los algoritmos de ranking/personalización amplifican lo que maximiza la interacción; las emociones negativas se difunden más rápido, especialmente el miedo. La saliencia deja de ser un efecto colateral de la personalización y se convierte en un mecanismo de control informacional que amplifica consensos convenientes, invisibiliza ciertos disensos y segmenta públicos para reducir la coordinación social.

En síntesis, cada una de estas mutaciones funciona en un bucle afectivo algorítmico que potencia la democracia reactiva:

2. Democracias reactivas y ascenso de derechas radicales

Hablamos de IA como entornos, una capa invisible de mediación que interpreta señales, prioriza contenidos y automatiza umbrales de decisión, generando mutaciones subjetivas que, como se ha señalado, exceden la esfera individual y son de carácter sistémico; constituyen un andamiaje cognitivo-afectivo que da lugar a democracias reactivas y, en ocasiones, vuelve practicable el autoritarismo algorítmico.

La noción de democracia reactiva (Gerbaudo, 2022) describe un régimen afectivo-comunicacional donde la expresión política se articula principalmente en forma de reacción inmediata: un me gusta, una réplica indignada o un retuit. En este modelo, las redes sociales funcionan como una esfera pública plebiscitaria, donde la participación se mide en intensidad y visibilidad más que en argumentación o reflexión. La democracia se vuelve así reactiva porque responde a impulsos, estímulos o afectos que circulan a alta velocidad, desplazando los procesos deliberativos por dinámicas de resonancia emocional.

Aunque no es la primera vez en la historia que componentes irracionales son utilizados con fines políticos, la transversalidad y ubicuidad de la IA generan efectos antes no vistos en términos de escala así como por las tendencias de agregación que las plataformas digitales presentan como sentido común. Estas expresiones en línea son agregadas en forma de métricas que miden supuestos estados de ánimo sociales que, a su vez, generan reacciones inmediatas de los gobiernos y líderes políticos.

Además, bajo ciertas configuraciones, los sistemas algorítmicos tienden a concentrar poder en cadenas opacas y a automatizar el control social. Entendemos por autoritarismo algorítmico el uso de sistemas de datos y modelos para manipular, vigilar, clasificar, puntuar y sancionar a personas o colectivos con baja rendición de cuentas y control democrático. Es un subconjunto del autoritarismo digital (Pearson, 2024), centrado en cómo los algoritmos materializan la represión o la exclusión con o sin mediación por parte de un agente político. En otras palabras, este fenómeno no depende necesariamente de una intención autoritaria explícita, sino que fuerzas sociales, tecnológicas y de mercado empujan a los ciudadanos hacia comportamientos colectivos cada vez más autoritarios, estén o no acompañados por regímenes que abusan conscientemente de la tecnología.

Este entorno sociotécnico convive con otro gran fenómeno contemporáneo: una profunda desafección democrática (García-Marzá, 2020; Signorelli, 2023, Montero Gibert, Torcal Loriente y Günther, 2024) producto de expectativas no cumplidas que minan la credibilidad en el sistema político (Luhmann, 2007). Si bien en América Latina y el Caribe (ALC) los niveles de democracia parecen aumentar –según el informe de V-Dem (2023), los países más poblados muestran mayores niveles democráticos–, se observa un fuerte retroceso en materia de calidad democrática en su dimensión liberal14; lo que Freidenberg (2024) asocia con la capacidad de mantener los principios republicanos. El mismo informe confirma lo que Levitsky y Ziblatt (2018) anticipaban: las democracias mueren desde dentro, pues el retroceso comienza en las urnas.

En palabras de Mouffe (2023), se han erosionado dos pilares fundamentales de la democracia en América Latina: la igualdad15 y la soberanía popular. A este escenario, se le adiciona una disminución de la confianza en los gobiernos y entre las propias personas16, donde los altos niveles de corrupción socavan aún más la legitimidad del sistema político y de las instituciones democráticas, favoreciendo la polarización ideológica con componentes afectivos. No es novedad que se usen para las campañas políticas teorías del comportamiento y disparadores emocionales potenciados por trolls y bots.

Kessler y Vommaro engloban estos fenómenos en la “era del hartazgo”: un escenario de descontento generalizado con una fuerte desafección hacia las élites políticas que induce a escenarios de polarización, donde se identifica al adversario como responsable de todos los males (Kessler y Vommaro, 2025) y se explota el miedo a que gobierne el otro como anzuelo electoral dentro de esta democracia reactiva.

Este contexto ayuda a explicar por qué la derecha radical ha ganado peso electoral en la región, desafiando el sistema de partidos establecido de manera vertiginosa: desde El Salvador hasta Argentina con sus presidencias a movimientos populistas de derecha como el bolsonarismo en Brasil, Kast en Chile o Rafael López-Aliaga, de Renovación Popular (RP), en Perú. La ‘derecha radical’ entendida como combinación de nativismo y autoritarismo con estilo populista europeo, también llamada ultraderecha, no aplica completamente en los ejemplos de competencia democrática en América Latina, como lo explican Nazareno y Brusco (2024). Sin embargo, los discursos de odio y su amplificación desde las redes sociales son un elemento estructurador de sus campañas y gobiernos. “Su radicalismo reside […] en su intolerancia extrema respecto a retóricas, prácticas sociales y propuestas políticas alternativas” (Nazareno y Brusco, 2024, p. 233) que resultan una amenaza para el sistema político democrático. Los autores prefieren categorizar tres vertientes de derechas radiales en LATAM: la Nueva Derecha Latinoamericana (NDL), la (cuasi) Derecha Populista Radical (DPR) y la Derecha Neoliberal Radical (DNR) de tinte más reaccionario (2024, p. 236).

En todas sus variantes, estas nuevas derechas se diferencian de las tradicionales. Según Rovira Kaltwasser (2023), lo propio de esta nueva derecha es la politización de la dimensión sociocultural por sobre la dimensión socioeconómica y su relación conflictiva con el sistema democrático, en particular, con el andamiaje liberal de la democracia.

Como todo fenómeno de nuestro tiempo, la reciente y acelerada emergencia de las derechas radicales en América Latina no se puede explicar por un solo factor. No obstante, recientes estudios (Vommaro, 2025; Borisonik, 2025; Cartes-Barroso, García-Estévez y Méndez-Muros, 2025; Kitzberger, 2024) sostienen que los discursos extremistas y polarizantes corren con ventaja en el ecosistema digital: “al abandonarse todo marco común de referencia, las redes construyen realidades paralelas. Esto refuerza la radicalización y atenta contra toda posibilidad de un debate público basado en evidencias. Por ahora, no importa si la extrema derecha tiene respuestas reales a los problemas sociales, porque tiene la capacidad de capturar la atención” (Borisonik, 2025). Incluso, han logrado generar expectativas de un futuro promisorio. “Las redes sociales funcionaron como espacio privilegiado de creación de elementos estéticos y discursos de contestación de la derecha radical” (Vommaro, 2025).

En este sentido, con el algoritmo como mediador de las conversaciones democráticas, las nuevas derechas se apoyan en las cuatro mutaciones subjetivas previamente descritas: movilización afectiva antagonista, los discursos de odio, la saturación y ambigüedad –multiplicando versiones plausibles para erosionar la verdad compartida (‘flooding’) y el hostigamiento a opositores mediante deepfakes, entre otras herramientas digitales–. “La ultraderecha no solo ha sabido adaptarse al ecosistema digital, sino que ha sido directamente favorecida por quienes lo diseñaron” (Borisonik, 2025). La batalla cultural y el rupturismo estético-político que promueven las nuevas derechas encuentran en los efectos de la IA un canal de comunicación particularmente eficaz, especialmente en las redes sociales.

Para contrarrestar esto, sigue Borisonik (2025), no basta con el fact-checking ni con regulaciones; hace falta construir un relato alternativo que funcione también en el ecosistema digital, democratizando la IA y generando otras infraestructuras afectivas con formas alegres de movilización y organización. En otras palabras, abandonar la agenda democrática reactiva para crear una democracia afectiva.

3. Democratizar la IA en el diseño, la gobernanza y la trazabilidad

Recuperemos rápidamente los efectos democráticos de las mutaciones en el sujeto producidas por los entornos de IA: i) fragilidad epistémica donde la verosimilitud desplaza a la verdad y erosiona el razonamiento público; ii) delegación, al orientación sigilosamente nuestros comportamientos e imponer valores como si lo técnico fuera neutro; iii) fomento de la polarización y uso de emociones, principalmente negativas, a partir de la saliencia y la aceleración que promueven las plataformas y la elevación de la dopamina para captar la atención instantánea; iv) reducción del juicio colectivo, que produce pensamiento colmena, baja capacidad de atención y una agenda pública y democracia reactiva que se mide en cantidad de likes y la reacciones inmediatas.

Frente a esto, democratizar la IA no es solo un asunto técnico, sino una estrategia de cuidado democrático y de reparación subjetiva. “La gobernanza algorítmica puede ser un factor de democratización en algunos ámbitos y no tanto en otros”, afirma Innerarity (2024, p. 17). Se trata, entonces, de promover que las tecnologías digitales sean entornos de entendimiento y cooperación sin perder autonomía: “hay que instituir espacios donde esta participación sea posible desde el inicio del diseño algorítmico hasta el cálculo de consecuencias (García-Marzá y Calvo, 2022). Para ello, necesitamos nuevas capacidades democráticas y ciudadanas que contrarresten las mutaciones que nos volvieron pasivos, acelerados o acríticos.

La voluntad política, la inteligencia colectiva y la deliberación pueden ser asistidas por la IA pero nunca reemplazadas por esta. No es la infraestructura técnica quien fija objetivos, ritmos y prioridades. Como recuerda Inneratiry (2024b, p. 11):

La función de la política es decidir el diseño de las estrategias de optimización algorítmica y mantener siempre la posibilidad de alterarlas, especialmente en entornos cambiantes. En una democracia todo debe estar abierto a momentos de repolitización, es decir, a la posibilidad de cuestionar los objetivos establecidos, las prioridades y los medios. Para esto es para lo que sirve la política y para lo que no sirven los algoritmos.

Si el poder instrumentario del que nos advierte Zuboff (2019) es una potencia remota, a escala y automatizada para dar forma a la conducta humana según fines de terceros (entornos), una forma de contenerlo es repolitizar el entorno tecnológico, recuperar la autodeterminación democrática y salir, aunque sea por momentos, del estado de trance algorítmico. Preguntarnos socialmente qué tipo de IA queremos y para qué.

La democracia no puede ser automatizada: su fuerza reside en la fricción, el disenso y la deliberación. Los algoritmos pueden anticipar patrones, pero no sentidos. No son capaces de predecir nuestros deseos y aspiraciones colectivas, pero sí pueden ponerse a su servicio si se democratizan sus ciclos de diseño, gobernanza y trazabilidad.

Por eso, las propuestas que siguen buscan revertir las mutaciones señaladas: desacelerar la inmediatez, abrir lo cerrado, explicar lo opaco, deliberar y reapropiar el tiempo y la agencia ciudadana dentro del entorno algorítmico. Para ello proponemos: 1) una política del tiempo y de presencia ciudadana; 2) la democratización de la IA en su diseño, gobernanza y trazabilidad y, 3) habitar la democracia desde la afectación y el encuentro, preludio de lo que desarrollaremos en el apartado siguiente.

3.1. Una política del tiempo y de presencia para ampliar capacidades democráticas

Frente a la desintegración de las arquitecturas temporales que nos traen las tecnologías, se vuelve necesaria una política del tiempo. Frente a la lógica de lo impermanente, lo inmediato y la aceleración, urge recuperar el valor de los procesos y del encuentro con otros. “Todo lo que estabiliza la vida humana requiere tiempo”, dice Byung-Chul (2021, p. 19). La democracia, por tanto, requiere tiempo y presencia.

Mientras los LLM optimizan respuestas individuales, la democracia optimiza desacuerdos civilizatorios. Como afirma Innerarity (2023), no hay mejor sistema que pueda procesar la pluralidad y complejidad que el democrático. Así, no solo difieren los objetivos de optimización sino también los ritmos: la IA instala compases de alta frecuencia que chocan con los compases lentos de la democracia (deliberación, controles, aprendizajes). La respuesta no pasa por acelerar todo o frenar todo, sino por coreografiar tiempos democráticos acelerando lo técnico, automatizable y reversible (en concordancia con ciertas expectativas ciudadanas de Estados más eficientes) y desacelerando lo normativo/distributivo y afectivo. Esta coreografía del tiempo aboga por una eficiencia con sentido y valor público.

Ahora bien, para trascender el estado actual de las cosas es necesaria la política democrática, lo que implica presencia y pensamiento comunitario. La IA puede aportar evidencia para la toma de decisiones, pero su rol debe ser subsidiario. Habitar la democracia significa volver a encontrarse tanto en arenas digitales como presenciales para romper las cámaras de eco y reactivar la empatía. De allí que la propuesta sea democratizar la IA reescribiendo sus arquitecturas para contrarrestar las mutaciones subjetivas:

Al atajo de plausibilidad se responde con transparencia y trazabilidad.

A la autonomía simulada, con participación y rendición de cuentas.

A la aceleración afectiva con una política del tiempo y ritmos deliberativos.

Y a la saliencia, con alfabetización crítica y una democracia afectiva, capaz de conmover y de ser conmovida.

3.2. Democratizar la IA en su diseño, gobernanza y trazabilidad

Los principales entornos de IA son generados por un grupo concentrado de empresas con fines específicos, para los cuales moldean nuestro comportamiento y pensamiento mediante algoritmos. Aunque algunas de estas iniciativas nacieron con intención de ser abiertas, hoy no lo son.

Las potencias hegemónicas disputan el poder global con desregulaciones fiscales y jurídicas, y facilidades para la inversión en centros de datos. En medio de esa carrera tecnológica y su burbuja financiera, el sur global sigue ocupando un lugar colonial como proveedor de recursos naturales (agua, litio, etc.), humanos (para el entrenamiento de modelos) y de datos. La regulación estatal, aún en la región europea donde es más exhaustiva, no alcanza a contrarrestar los efectos sobre los sujetos. A ello se le suma la opacidad algorítmica propia del entrenamiento. Democratizar la IA tiene varias aristas, nos centraremos, sin ánimo de ser exhaustivos, en aquellas donde el rol del Estado deja de ser el de un observador periférico del fenómeno tecnológico y recupera capacidad de incidir.

3.2.1. Diseño (qué hace el entorno y cómo)

3.2.2. Gobernanza (quién decide, con qué límites)

[…] la participación e involucramiento de la sociedad es un elemento central en la elaboración de las políticas o estrategias nacionales en IA, debido a que la participación de múltiples stakeholders (gobierno, academia, empresas, sociedad civil y ciudadanía en general) permite la incorporación de múltiples visiones y el establecimiento de prioridades para la aplicación de dicha política, orientadas al bien común u objetivos que contribuyan al desarrollo sostenible (ILIA, 2023, p. 104).

3.2.3. Trazabilidad (cómo se sabe lo que pasó)

Con estas piezas se empieza a abrir la caja negra que acelera emociones y fija agendas por defecto. La IA se vuelve infraestructura auditable, disputable y, sobre todo, situada en nuestras lenguas, cosmovisiones y prioridades. De esta manera, puede ser aliada para manejar datos frente a la complejidad de los problemas actuales y contribuir a que nuestras democracias den respuestas acordes a las expectativas ciudadanas.

No obstante, estas condiciones institucionales no bastan por sí solas para revertir los efectos subjetivos y afectivos producidos por los entornos de IA. Por eso, el paso siguiente es la creación de arquitecturas afectivas participativas: espacios de encuentro y cocreación donde se habite la democracia recuperando su potencia para construir lazos colectivos necesarios para una felicidad cívica moderna.

4. Democracia afectiva para nuevos futuros comunes posibles

Este mundo de mierda está embarazado de otro mundo posible, diferente y difícil de parir pero que ya está latiendo” (E. Galeano)

En vez de interconectar a todo el mundo con lo diverso y lo distinto, internet y las redes sociales tienden a aislar a los usuarios17. Las mutaciones subjetivas –saliencia, aceleración, autonomía simulada y atajo de plausibilidad– fracturan el espacio público y erosionan el diálogo democrático. Esto, por supuesto, tiene impactos políticos: la esfera digital se ha convertido en un territorio de disputa por la atención, los afectos y el sentido. La internet de las cosas y la IA son un eje vertebrador del capital, el poder y la política (Ricaurte Quijano, 2023).

Hemos analizado cómo las pasiones colectivas encuentran hoy su realización en fantasías individualistas. Los actores políticos que mejor explotan esa arquitectura emocional –como las nuevas derechas radicales en América Latina– comprenden que la movilización contemporánea se juega en el terreno de la emoción más que de la razón. De esta manera, aunque las máquinas no pueden sentir, los algoritmos, en tanto entornos, pueden inducir nuestro comportamiento y modular nuestras emociones.

En un doble sentido, aparentemente contradictorio, la IA promueve la despersonalización absoluta –en tanto promotora del pensamiento colmena– y, a la vez, permite la hiperpersonalización según nuestros gustos e intereses específicos. Como consecuencia de este vaivén entre lo homogéneo y lo individual, se produce una subjetividad fragmentada: conectada pero sola; visible, pero sin voz. Los seres humanos adoptamos un papel de espectadores pasivos (autonomía simulada). Como bien ha analizado Zuboff (2019), el poder instrumentario de las grandes corporaciones busca utilizarnos para su propio beneficio; no obstante, la ciudadanía aún puede ejercer una vigilancia crítica sobre este poder y decidir si seguir sometida a esa servidumbre voluntaria o usar las nuevas tecnologías como aliadas para reencantar la democracia desde una experiencia de deseo y disfrute; desde nuevas culturas del trabajo y con un centro en el cuidado de la vida y de los ecosistemas.

Las pasiones y los afectos son el combustible de la adhesión a los valores democráticos (Mouffe, 2023): “lo que está en juego no tiene que ver con la racionalidad, sino con los afectos comunes” (2023, p. 35). Esto lo han entendido muy bien ciertos sectores del juego democrático, que explotan el odio, el miedo o el resentimiento como emociones políticas dominantes. La desilusión y la abolición progresiva de todo cimiento común no permiten imaginar proyectos colectivos. Sin embargo, las emociones negativas no son los únicos afectos capaces de movilizar: también pueden hacerlo la esperanza, la ternura, la curiosidad o la felicidad. Hay que trascender la pulsión individual hacia la construcción de una voluntad colectiva. Se trata entonces de construir nuevas narrativas con objetos o ideas afectantes (ideas con poder de afectar, sugiere Lordon (2018) releyendo a Spinoza); capaces de generar identificación (Mouffe, 2023), de politizar a través de los afectos y las afectaciones (Cortés y otros, 2020) convirtiendo la indignación individual en conexión y esperanza colectiva.

Laval y Dardot (2014) nos proponen oponer el principio de lo común frente al de la competencia promovido por el neoliberalismo. Lo común como “todo aquello que las comunidades consideren fundamental para la vida y que no debe ser privatizado o convertirse en objeto de lucro” (Marín Moreno, 2018, p. 411). Lo común no es un bien sino una praxis (Laval y Dardot, 2014) que requiere afecto, cuidado y participación. La democracia es un objeto común que requiere, por tanto, de una conversación constante y de calidad sobre esa praxis (Innerarity, 2024; Urbinati, 2023).

Para Mouffe (2023) la confrontación entre proyectos hegemónicos en conflicto nunca podrá reconciliarse de manera racional dado que lo que motiva a las personas a luchar contra las formas de dominación que padecen, tiene que ver con las experiencias vividas y aspiraciones concretas, no son ideales abstractos como la justicia o la igualdad: “la imaginación utópica por sí misma es incapaz de surtir efecto material en el mundo real” (Arboleda, 2021, p. 194). De allí la importancia de hacer visible el extractivismo de datos y el sometimiento al trance algorítmico.

Desde la crueldad del individualismo actual, es complejo imaginar futuros mejores. Necesitamos proyectos alternativos que se opongan a la antipolítica y la proletarización deshumanizada que la IA puede acentuar. La alfabetización digital crítica se vuelve urgente, así como la creación de nuevas capacidades democráticas estatales y cívicas. Sobre las primeras, ya se avanzó en el apartado anterior: si democratizamos la IA, podemos democratizar nuestras democracias, volviéndolas más accesibles e inclusivas. En este apartado, nos centramos en las segundas: las capacidades cívicas afectivas necesarias para reanimar la vida democrática y proyectar futuros comunes posibles.

La IA, bien orientada, puede contribuir a ampliar el autogobierno, a partir del desarrollo de nuevas formas para la toma de decisiones colectivas, permitiendo procesar un gran número de información. Su potencia radica en la ética de su uso y diseño, así como en los vínculos humanos que la atraviesen. Puede colaborar en los procesos de planificación de ciudades, en la gestión de catástrofes naturales; en la mejora de los sistemas burocráticos de atención al ciudadano (ILIA, 2023). Pero también puede ayudarnos a cocrear, a detectar afinidades y sostener conversaciones plurales. En otras palabras, buscamos usar lo que las herramientas de IA posibilitan para crear arquitecturas afectivas participativas impulsadas por emociones afines a los valores democráticos.

4.1. Arquitecturas afectivas participativas

Si la felicidad cívica es la experiencia de vivir bien juntos, las arquitecturas afectivas son los andamios donde esa experiencia se ensaya en tiempos digitales. Si en todos los tiempos la participación ha sido central para la democracia, los actuales requieren de mayor capacidad de agencia ciudadana para salir del trance y accionar de manera colectiva. Estar en red no es suficiente, necesitamos enraizar, volver a hacer que la comunidad sostenga recomponiendo la fragmentación de la vida a la que las tecnologías nos impulsan. Nunca tuvimos tanta información, tanta libertad de expresión y estuvimos tan perdidos. El reencuentro es primero personal, en ese hiato de silencio y de presencia, de recuperar lo íntimo como sagrado. Solo entonces podemos salir al encuentro de los otros y recomponer el significado de vivir una vida con más sentido, nuestro propio sentido y no el impuesto por las configuraciones algorítmicas.

Los rituales cotidianos nos anclan al presente con presencia, en esos espacios donde el cuerpo tiene lugar y que nos permiten habitar una democracia afectiva y empática, resistiendo al hackeo de nuestra atención con noticias falsas o recompensas pasajeras. El funcionamiento de los entornos de IA hace que se siga mostrando aquello que engancha, que captura nuestra atención. Por eso, fomentar la alfabetización algorítmica es esencial: comprender cómo funcionan, cómo arma lo que nos muestran y cómo limitan nuestra comprensión del mundo. Lo que las plataformas nos acercan es apenas un fragmento de la realidad –un micromundo hecho a medida– que, en ocasiones, nos empuja más allá de los márgenes de los valores democráticos. Solo entendiendo sus reglas podremos reorientarlas para que la economía de la atención y del rendimiento sirvan a la humanidad.

No ser contradichos (dentro de ese micromundo) parece una experiencia perfecta pero al mismo tiempo completamente vacía. La incertidumbre y la vulnerabilidad son impulsoras de la experiencia humana. Mientras que, la supuesta comodidad online, genera aislamiento y ansiedad colectiva, especialmente entre los más jóvenes (1 de cada 4 personas se siente sola en el mundo)18. El adormecimiento colectivo es funcional a los intereses de las grandes corporaciones tecnológicas y de sus socios menores. De momento, los grandes desarrolladores no tienen ningún compromiso con la verdad y eluden su responsabilidad: “bajo tal estructura, las máquinas solo pueden generar verdades de conveniencia, beneficio y dominación. Los modelos te dirán lo que quieres oír, lo que una empresa quiere que oigas o lo que siempre has oído” (Munn et al., 2023, p. 2770)19.

Por esto la democratización de la IA implica soberanía digital, saberes compartidos y combinación de lo sintético con la experiencia humana. En ese horizonte, las comunidades tecnológicas distribuidas representan una vía concreta para la inclusión digital y la reapropiación de la inteligencia artificial. Son redes de colaboración que combinan saber técnico y sensibilidad democrática, donde el conocimiento y la responsabilidad se reparten –no se delegan– entre múltiples actores humanos y no humanos. Lo distribuido no es solo lo técnico, sino también lo afectivo: la confianza, el cuidado y la deliberación se vuelven prácticas compartidas. Estas comunidades, que pueden tomar la forma de laboratorios ciudadanos, repositorios de datos comunes, cooperativas digitales o plataformas abiertas, funcionan como infraestructuras de lo común que desactivan la lógica extractiva del capitalismo de plataformas. Frente a la automatización sin rostro, proponen una inteligencia situada y acompañada; una IA capaz de fortalecer la autonomía cívica y la felicidad compartida.

Las arquitecturas afectivas participativas son, en ese sentido, un ensayo de humanidad aumentada para superar el malestar democrático: un intento de reconciliar inteligencia y sensibilidad, técnica y cuidado, emociones positivas y vida en democracia.

A como de conclusión: habitar las fallas, nuevos futuros posibles

«El individuo no puede tener razón indefinidamente contra la humanidad»

Jules Romains20

«La política, se dice, es una necesidad ineludible para la vida humana, tanto individual como social. Puesto que el hombre no es autárquico, sino que depende en su existencia de otros, el cuidado de ésta debe concernir a todos, sin lo cual la convivencia sería imposible»

Hannah Arendt

Repasemos algunos de los argumentos esgrimidos en este ensayo: i) la IA no es una herramienta, es un entorno sociotécnico capaz de producir mutaciones subjetivas con impacto sistémico (saliencia, aceleración afectiva, autonomía simulada, atajo de plausibilidad); es decir, en lo colectivo y democrático; ii) los datos no son neutros: en su diseño y uso subyacen decisiones (Inneratiry, 2024; Crowford, 2023); iii) dichas mutaciones afectan la experiencia democrática y derivan en fenómenos como la democracia reactiva y el autoritarismo algorítmico; iv) los LLM son producto de la inversión de grandes capitales concentrados con intereses geopolíticos y económicos difusos en cuyo escenario global, Latinoamérica tiene un rol subsidiario y colonial; v) existen ciertos actores, como las derechas radicales, que hacen uso de la modificación de comportamientos que modeliza la IA –dado el estado de trance al que los algoritmos nos someten–; y, aunque esto no sucediera, todos estamos expuestos al autoritarismo digital (Pearson, 2024), en tanto nuestra relación con las tecnologías es simbiótica y los algoritmos empujan a los ciudadanos a la atomización y el comportamiento colectivo cada vez más violento y egoísta. Esto va en desmedro de la calidad discursiva y reduce la democracia e incluso la empuja fuera de sus límites. vi) Compensar los efectos del poder instrumentario requiere de nuevas capacidades estatales (democratizar la IA en su diseño, gobernanza y trazabilidad) y cívicas (arquitecturas afectivas). Dado que lo que no se logra con regulación técnica, puede alcanzarse desde una pedagogía afectiva que nos enseñe a convivir entre humanos y con algoritmos; vii) finalmente, como horizonte normativo se propone una democracia afectiva; es decir, con capacidad afectante desde arquitecturas participativas, alfabetización algorítmica y comunidades tecnológicas distribuidas.

En síntesis, este recorrido permitió mostrar que no hay nada más humano que la IA –que es, por tanto, limitada e imperfecta–. Estos entornos con efectos sistémicos son políticos. La IA es sí misma política codificada. No hay nada más intrínseco al ser humano que la política como capacidad de actuar concertada y plural (Arendt, 2018). El problema aparece cuando ambas líneas se separan o predomina la técnica sobre la política, lo individual sobre lo colectivo. Cuando se pretende simular el funcionamiento democrático con la lógica del mercado: “la política no trata de optimizar resultados sino de definir esos resultados en un debate explícito sobre las aspiraciones de la vida colectiva” (Innerarity, 2024a, p. 19). Y entre dichas aspiraciones, cabe preguntarnos qué IA queremos y para qué.

Es probable que sea inevitable que la inteligencia de las máquinas suplante a la inteligencia humana en toda función cuantificable (Hiu, 2020). Pero la democracia no puede ser automatizada. Sin embargo, la democratización de la IA puede ser un eslabón para democratizar nuestras democracias, si logramos movilizar proyectos colectivos con horizontes de futuro palpables; con ciudadanías conscientes; politizando el deseo de una calidad de vida digna; con políticas y tecnologías arraigadas territorialmente, desafiantes de las estructuras de poder. Esta democratización debe incluir una política del tiempo –acelerar lo técnico, desacelerar lo normativo y lo afectivo– para devolver ritmo humano a la vida democrática y favorecer procesos de deliberación y cuidado. Para ello necesitamos gobernar el entorno. Regular no es suficiente, mucho menos sin acuerdos regionales. América Latina tiene una larga tradición en la defensa de la democracia y la protección de los derechos humanos que puede aportar al debate y a las regulaciones, pero debe, sobre todo, apostar por nuevos desarrollos tecnológicos situados, con epistemologías del sur, que resignifiquen la soberanía digital y la autonomía democrática como bien común.

Se trata de repolitizar el entorno y el deseo, de reconciliar tecnología y democracia.
Resituar a las máquinas dentro de la vida (Hui, 2020) implica reconocer que no hay futuro humano sin tecnología, pero tampoco tecnología legítima sin humanidad. La propuesta de este ensayo es habitar las fallas y los problemas a los que el devenir democrático y tecnológico nos enfrenta, desarrollando arquitecturas afectivas alternativas a las políticas de la crueldad existentes. El beneficio mutuo entre los entornos digitales con IA y los movimientos políticos de la derecha radical es contingente: es el modo en el cual se ha canalizado hasta ahora la frustración. Ese malestar contemporáneo también puede ser canalizado por otro proyecto político que se promueva participativamente desde los afectos y la promoción del cuidado de lo común.

Movilizar la conciencia para salir del estado de trance, replantearnos la relación con las tecnologías no para dejar de usarlas sino para desplegar con ellas un poder deseante capaz de producir un futuro donde la democracia se reconcilie con las personas.

Mientras la IA avanza de manera vertiginosa, nuestras democracias y Estados están adormecidos e incluso demuestran cierta torpeza. Habitar las fallas de las promesas de las tecnologías y de la democracia es hacernos responsables del desafío de democratizar la IA y de democratizar nuestras democracias. Aunque las probabilidades están en nuestra contra (Tsing, 2015), hay que dedicarse al trabajo de vivir juntos: una tarea que es colectiva e inminentemente política y humana.

Referencias bibliográficas

Annunziata, R. et al. (2024). La politización antipolítica. Análisis del fenómeno de Javier Milei. Revista SAAP, 18(1), 13-42. Recuperado de: https://revista.saap.org.ar/contenido/revista-v18-n1/rsaap.18.1.a1.pdf.

Arboleda, M. (2021). Gobernar la utopía. Sobre la planificación y el poder popular. Buenos Aires, Argentina: Caja Negra.

Arendt, H. (2018). ¿Qué es la política? México: PRD. Colección de clásicos. Recuperado de: https://www.prd.org.mx/libros/documentos/libros/Politica-Hannah.pdf.

Borisonik, H. (2025). Algoritmos y ultraderecha: la tecnopolítica del malestar. Jacobin. [En línea]. Recuperado de: https://jacobinlat.com/2025/02/algoritmos-y-ultraderecha-la-tecnopolitica-del-malestar/.

Bruno, F. (2021). #Fail tecnología y política: pensar y crear mundos a partir de sus fallas y ruinas. Medialab UFRJ. [En línea]. Recuperado de: https://fail.medialabufrj.net/es/_fail-sobre/.

CAF (2022). Desigualdades heredadas. El rol de las habilidades, el empleo y la riqueza en las oportunidades de las nuevas generaciones. Recuperado de: https://www.caf.com/media/4019958/red2022.pdf.

CAF (2024). Diseño de políticas públicas de inteligencia artificial. Desarrollo de habilitadores para su implementación en América Latina y el Caribe. Distrito Capital: CAF- banco de desarrollo de América Latina y el Caribe. Recuperado de: https://scioteca.caf.com/handle/123456789/2241.

Calvo, P. (2022). Gemelos digitales y democracia. Revista del CLAD Reforma y Democracia, (83), 41-70. Recuperado de: https://clad.org/wp-content/uploads/2023/11/083-02-C.pdf.

Cánepa, S.; Bagdassarian, T. y Díaz Rato, S. (2024). Identidad Digital Autosoberana (IDA). Caracas, Venezuela: CAF. Recuperado de: https://scioteca.caf.com/handle/123456789/2275.

Cartes-Barroso, M.; García-Estévez, N. y Méndez-Muros, S. (2025). Attracting the vote on TikTok: Far-right parties’ emotional communication strategies in the 2024 European elections. Journalism and Media, 6(1), 33. Recuperado de: https://www.mdpi.com/2673-5172/6/1/33.

Casullo, M. (2019). Por qué funciona el populismo: el discurso que sabe construir explicaciones convincentes de un mundo en crisis. Siglo XXI Editores.

CEPAL (2022). Panorama Social de América Latina. Comisión Económica para América Latina y el Caribe. Recuperado de: https://www.cepal.org/es/publicaciones/47958-panorama-social-america-latina-2022.

CIVICUS (2024). Informe sobre el estado de la sociedad civil. Recuperado de: https://www.civicus.org/index.php/es/informe-2024-sobre-el-estado-de-la-sociedad-civil.

CLACSO (2023). América Latina y el Caribe es la región más desigual del planeta. Recuperado de: https://www.clacso.org/america-latina-y-el-caribe-es-la-region-mas-desigual-del-planeta/.

Colamedici, A. (2025). Hipnocracia. Trump, Musk y la nueva arquitectura de la realidad. España: Rosamerón.

Conill, J. (2019). Intimidad corporal y persona humana. De Nietzsche a Ortega y Zubiri. Madrid, España: Tecnos.

Cortés Lagunas, N. et al. (2020). Tecnoafecciones: hacia una política de la corresponsabilidad. Instituto de Liderazgo Simone de Beauvoir. Recuperado de: https://ia601809.us.archive.org/28/items/tecnoafecciones-web/Tecnoafecciones_web.pdf.

Crawford, K. (2023). Atlas de Inteligencia Artificial. Poder, política y costos planetarios. Buenos Aires, Argentina: FCE.

De la Boétie, E. (2022). Discurso de la servidumbre voluntaria. Editado por Jorge Álvarez Yagüe. Madrid, España: Akal.

Dugal, M. (2023). IA ¿Podrán las máquinas reemplazarnos? España: Alba.

Freidenberg, F. (2024). Democracy in Latin America: Between Backsliding and Resilience. Athena, 4.1, 68-109. Recuperado de: https://athena.unibo.it/article/view/19152/17713.

García-Marzá, D. (2020). Contra el nuevo revisionismo democrático: el alcance del valor moral de la democracia en K.-O. Apel. ethic@-An international Journal for Moral Philosophy, 19(3), 568-591.

García-Marzá, D. y Calvo, P. (2022). Democracia algorítmica: ¿un nuevo cambio estructural de la opinión pública? Isegoría, (67). DOI: https://doi.org/10.3989/isegoria.2022.67.17.

Gendler, M. (2024). Datifica­ción social e inteligencia artificial: ¿hacia un nuevo “salto de escala”? Resonancias, (17), 121-141. DOI: 10.5354/0719-790X.2024.74503.

Gerbaudo, P. (2022). Theorizing reactive democracy: The social media public sphere, online crowds and the plebiscitary logic of online reactions. Democratic Theory, 9(2), 101-122. DOI: https://doi.org/10.3167/dt.2022.090207 https://www.berghahnjournals.com/view/journals/democratic-theory/9/2/dt090207.xml.

Han, B.-C. (2021). No-cosas: quiebras del mundo de hoy. Taurus.

Han, B.-C. (2022). Infocracia: la digitalización y la crisis de la democracia. Taurus.

Hartmut, R. (2016). Alienación y aceleración: hacia una teoría crítica de la temporalidad en la modernidad tardía. Buenos Aires, Argentina: Katz.

Hui, Y. (2020). Fragmentar el futuro. Ensayos sobre tecnodiversidad. Buenos Aires, Argentina: Caja Negra.

ILIA - Índice Latinoamericano de Inteligencia Artificial (2023). Informe regional sobre IA en América Latina. Recuperado de: https://indicelatam.cl/.

Innerarity, D. (2023). Complejidad y democracia. Revista Paradigma, 4-9. España: Universidad del País Vasco.

Innerarity, D. (2024a). Inteligencia artificial y democracia. UNESCO.

Innerarity, D. (2024b). Defensa y crítica de la gobernanza algorítmica. Revista CIDOB d’Afers Internacionals, (138), 11-25. DOI: https://doi.org/10.24241/rcai.2024.138.3.11.

IPSOS (2024). El populismo se mantiene fuerte. Recuperado de: https://www.ipsos.com/es-ar/el-populismo-se-mantiene-fuerte.

Kahneman, D. (2012). Pensar rápido, pensar despacio. Madrid, España: Debate.

Keefer, P. y Scartascini, P. (eds.). (2020). Confianza: la clave de la cohesión social y el crecimiento en América Latina y el Caribe. Banco Interamericano de Desarrollo. Recuperado de: https://publications.iadb.org/publications/spanish/document/Confianza-La-clave-de-la-cohesion-social-y-el-crecimiento-en-America-Latina-y-el-Caribe.pdf.

Kessler, G. y Vommaro, G. (2025). La era del hartazgo: líderes disruptivos, polarización y antipolítica en América Latina. Buenos Aires, Argentina: Siglo XXI Editores.

Kitzberger, P. y Schuliaquer, I. (2024). Derechas radicales, medios, redes y plataformas: un estado de la cuestión. Revista Uruguaya de Ciencia Política, (34), e609. Recuperado de: https://doi.org/10.26851/RUCP.34.6 - http://www.scielo.edu.uy/pdf/rucp/v34/1688-499X-rucp-34-e609.pdf.

Latinobarómetro (2023). Informe 2023. Recuperado de: https://www.latinobarometro.org/lat.jsp.

Laval, C. y Dardot, P. (2014). Común. Ensayo sobre la revolución en el siglo XXI. Gedisa.

Lefort, C. (1985). El problema de la democracia. Revista Opciones, (6), 73–86.

Lordon, F. (2018). La sociedad de los afectos: por un estructuralismo de las pasiones. Editado por Adriana Hidalgo. Argentina, Ciudad Autónoma de Buenos Aires.

Luhmann, N. (2007). La confianza: un mecanismo de reducción de la complejidad social. Anthropos.

Marín Moreno, M. (2018). El principio de lo común en Laval y Dardot. Revista Iberoamericana de Filosofía, Política y Humanidades, 20(40), 407-418.

McLuhan, M. (1964). Understanding media: The extensions of man. McGraw-Hill.

Mecila (2022). Convivialidad-desigualdad: explorando los nexos entre lo que nos une y lo que nos separa. Ciudad Autónoma de Buenos Aires, Argentina: CLACSO. Recuperado de: https://biblioteca-repositorio.clacso.edu.ar/bitstream/CLACSO/169355/1/Convivialidad-Desigualdad.pdf.

Moffitt, B. (2016). The global rise of populism: Performance, political style, and representation. Stanford University Press.

Mohamed, S.; M. Png y W. Isaac. (2020). IA decolonial: teoría decolonial como previsión sociotécnica en inteligencia artificial. Filosofía y Tecnología, 33,  659-684. DOI: https://doi.org/10.1007/s13347-020-00405-8.

Montero Gibert, J. R.; Torcal Loriente, M. y Günther, R. (2024). Actitudes hacia la democracia en España legitimidad, descontento y desafección. Revista Española De Investigaciones Sociológicas, (83), 9-49. DOI: https://doi.org/10.5477/cis/reis.83.9.

Mouffe, C. (2023). El poder de los afectos. Hacia una revolución democrática y verde. Buenos Aires, Argentina: Siglo XIX.

Munn, L. (2025). La IA y el nuevo espíritu del capitalismo. Nueva Sociedad (NUSO). Recuperado de: https://nuso.org/articulo/inteligencia-artificial-generativa-etica-capitalismo/.

Munn, L. et al. (2023). Truth machines: synthesizing veracity in AI language models. AI & SOCIETY, 39, 2760-2773. Recuperado de: https://link.springer.com/article/10.1007/s00146-023-01756-4.

Nazareno, M. y Brusco, V. (2024). Derecha radical y subjetividad política en la Argentina: qué hay detrás del voto a Javier Milei. Revista POSTData, 28(2), 227-251.

Pariser, E. (2017). El filtro burbuja: cómo la red decide lo que leemos y lo que pensamos. Traducido por M. Vaquero. Barcelona, España: Taurus.

Pearson, J. (2024). Defining digital authoritarianism. Philosophy & Technology, 37(73). Recuperado de: https://doi.org/10.1007/s13347-024-00754-8 -https://link.springer.com/article/10.1007/s13347-024-00754-8?utm_source=chatgpt.com.

Petit, M. (2018). Por una crítica de la razón algorítmica. Estado de la cuestión sobre la inteligencia artificial, su influencia en la política y su regulación. Quaderns del CAC, XXI(44), 5-15.

Plantin, J.-C.; Lagoze, C., Edwards, P. N. y Sandvig, C. (2018). Infrastructure studies meet platform studies in the age of Google and Facebook. New Media & Society, 20(1), 293-310. DOI: https://doi.org/10.1177/1461444816661553.

Quijano, A. (2010). Des/colonialidad del poder: el horizonte alternativo. Estudios Latinoamericanos, (25), 27-30. DOI: https://doi.org/10.22201/cela.24484946e.2010.25.49411.

Ricaurte, P. (2023). Inteligencia artificial y la imaginación feminista descolonial. Recuperado de: https://feministai.pubpub.org/pub/6rqmucwa/release/1.

Ricaurte, P. (2019). Data Epistemologies, The Coloniality of Power, and Resistance. Television & New Media, 20(4), 350-365. DOI: https://doi.org/10.1177/1527476419831640.

Ricaurte, P. (2024). Resistencia como reexistencia: la defensa del cuerpo-territorio en la sociedad algorítmica. Pléyade, (32), 64-92. Recuperado de: https://www.revistapleyade.cl/index.php/OJS/article/view/471.

Rovira Kaltwasser, C. (2023). La ultraderecha en América Latina: definiciones y explicaciones. Friedrich-Ebert-Stiftung. Recuperado de: https://www.icpweb.ar/sites/default/files/bibliografia/la-ultraderecha-en-america-latina-kaltwasser-rovira-cristobal.pdf.

Sadin, E. (2018). La IA o el desafío del siglo. Buenos Aires, Argentina: Caja Negra.

Sadin, E. (2022). La era del individuo tirano. Buenos Aires, Argentina: Caja Negra.

Signorelli, G. (2021). Hacia una participación anfibia: desafíos del mundo online y offline en la participación ciudadana. En Castro Rojas; Berdondini y Actis (comps.). Ciencias sociales y Big Data. Representaciones políticas, disputas comunicacionales y política internacional. Pp. 175-182. UNR Editora. Recuperado de: https://rephip.unr.edu.ar/xmlui/handle/2133/21407.

Signorelli, G. (2023). Democracia más allá de las elecciones: giro afectivo hacia la participación para gestionar la complejidad. Temas y Debates, 27(45), 175-182. Recuperado de: https://temasydebates.unr.edu.ar/index.php/tyd/article/view/646.

Srnicek, N. (2018). Capitalismo de plataformas. Buenos Aires, Argentina: Caja Negra.

Thatcher, J.; O’Sullivan, D. y Mahmoudi, D. (2016). Data colonialism through accumulation by dispossession: New metaphors for daily data. Environment and Planning D: Society and Space, 34(6), 990-1006. DOI: https://doi.org/10.1177/0263775816633195.

Transparencia Internacional (2023). Índice de percepción de la corrupción 2023. Recuperado de: https://www.transparency.org/en/cpi/2023.

Tschaepe, M. (2016). Undermining dopamine democracy through education: Synthetic situations, social media, and incentive salience. Pragmatism Today, 7(1), 32-40. Recuperado de: https://www.pragmatismtoday.com/summer2016/Undermining-Dopamine-Democracy-through-Education-Synthetic-Situations-Social-Media-and-Incentive-Salience-Mark-Tschaepe.pdf.

Tsing, A. (2015). The mushroom at the end of the world: On the possibility of life in capitalist ruins. Princeton University Press.

Urbinati, N. (2023). Democracia desconfigurada. La opinión, la verdad y el pueblo. Buenos Aires, Argentina: Prometeo.

V-DEM (2023). Reporte de la democracia. Resistencia frente a la autocratización. Recuperado de: https://www.v-dem.net/documents/35/V-dem_democracyreport2023_espanol_med.pdf.

Verbeek, P.-P. (2011). Moralizing technology: Understanding and designing the morality of things. University of Chicago Press. Recuperado de: https://dokumen.pub/moralizing-technology-understanding-and-designing-the-morality-of-things-9780226852904.html.

Vommaro, G. (2025). Rompiendo las reglas: interacciones de las derechas radicales con los medios de comunicación y la movilización digital en América Latina. Revista Uruguaya de Ciencia Política, (5), e34. DOI: https://doi.org/10.26851/rucp.34.12.

Zuboff, S. (2019). La era del capitalismo de vigilancia. Paidós. Recuperado de: https://perio.unlp.edu.ar/catedras/comunicacionyrecepcion/wp-content/uploads/sites/210/2023/06/ZUBOFF_1.pdf.


  1. Doctora en Ciencia Política por la Universidad Nacional de Rosario (Rosario, Argentina). Afiliación institucional: Universidad Nacional de Rosario (Rosario, Argentina). Correo: gisela.signorelli@fcpolit.unr.edu.ar. Temas de especialización: participación ciudadana, inteligencia artificial, innovación democrática. ↩︎

  2. Para contextualizar, según Aristóteles en su texto Ética a Nicómaco, la eudaimonía o felicidad es el bien humano supremo, aquello que deseamos por sí mismo y no como medio para otra cosa. No es un estado afectivo pasajero sino una actividad del alma conforme a la virtud (areté) a lo largo de una vida completa. La eudaimonía es inseparable de la polis. La comunidad política existe para vivir bien y la tarea del legislador es hacer buenos a los ciudadanos mediante leyes y educación (paideia). La amistad cívica y la concordia estabilizan la vida común: no hay florecimiento individual al margen del orden compartido. Por eso la felicidad aristotélica es a la vez personal y cívica. La felicidad cívica, entonces, nombra el tejido de virtudes personales, vínculos y leyes que hacen posible una vida buena compartida.↩︎

  3. Siguiendo a Mejías y Couldry (2022), la datificación comprende los procesos donde un elemento de la realidad concreta o simbólica se convierte en datos (en Gendler, 2024, p. 122).↩︎

  4. Momento tecnopolar. Recuperado de: https://www.foreignaffairs.com/es/articles/world/ian-bremmer-big-tech-global-order.↩︎

  5. Recuperado de: https://www.unesco.org/es/artificial-intelligence.↩︎

  6. El efecto Eliza –observado por Weizenbaum al ver cómo su programa con ese nombre en 1966 era percibido como un terapeuta que comprendía– nombra la tendencia a atribuir intención, comprensión y empatía a sistemas que solo manipulan símbolos. Recuperado de: https://builtin.com/artificial-intelligence/eliza-effect.↩︎

  7. Recuperado de: https://revistalatam.digital/article/22tr05/.↩︎

  8. Notas en Medium: https://medium.com/@ruiberriz/pensar-fuera-del-modelo-7f8f2a42fb18.↩︎

  9. Este sesgo fue estudiado en 1977 por tres psicólogos, Lynn Hasher, David Goldstein y Thomas Toppino, y ha sido retomado a partir del efecto de los algoritmos en las redes sociales y el impacto de las noticias falsas por su rápida viralización.↩︎

  10. Desarrollado por Kahneman (2011), Thinking, Fast and Slow. En español: Kahneman, D. (2012). Pensar rápido, pensar despacio. Madrid: Debate.↩︎

  11. Las fake news, o noticias falsas, son informaciones engañosas o fabricadas que se difunden como si fueran noticias legítimas, a menudo a través de plataformas digitales y redes sociales. Se crean con la intención de desinformar, manipular la opinión pública, generar confusión o desprestigiar a personas o instituciones (definición de Gemini).↩︎

  12. Un deepfake es una imagen, video o audio creado o manipulado usando inteligencia artificial para que parezca auténtico, pero que es falso. La tecnología combina el aprendizaje profundo (deep learning) y la manipulación falsa (fake) para generar contenido sintético que puede hacer que personas reales o inexistentes digan o hagan cosas que nunca ocurrieron (definición de Gemini).↩︎

  13. La traducción es nuestra.↩︎

  14. “Esta dimensión se mide por las decisiones y el comportamiento en una serie de ámbitos que tienen que ver con el funcionamiento de las instituciones, así como con la forma en que los actores políticos se relacionan entre sí y con esas instituciones” (Freindenberg, 2024, p. 77). La traducción es nuestra.↩︎

  15. El 34% de la población de ALC es pobre, lo que equivale a más de 200 millones de personas, mientras el 10% más rico recibe el 55% por ciento de los ingresos. En términos de riqueza, la concentración es mucho mayor: el 10% más rico acumula el 77% de la riqueza y el 50% más pobre solo el 1% (CAF, 2022). ↩︎

  16. «A nivel mundial, el porcentaje de personas que creen que se puede confiar en la mayoría de la gente (confianza generalizada o “interpersonal”) bajó del 38% en el período 1981–85, al 26% en 2016–20, según datos de la Encuesta Mundial de Valores. En ALC, la reducción ha sido aún más drástica, con una caída de los niveles de confianza del 22% al 11%. Solo una de cada 10 personas considera que se puede confiar en los demás» (Keefer; Philip y Scartascini, 2020, pp. 4-5).↩︎

  17. Recuperado de: https://www.nuevarevista.net/el-filtro-burbuja-decide-la-red-lo-que-leemos-y-pensamos/.↩︎

  18. Encuesta MetaGallup 2023. Recuperado de: https://news.gallup.com/opinion/gallup/512618/almost-quarter-world-feels-lonely.aspx. Por su parte, la OMS (2025) ha publicado su informe en el que revela que 1 de cada 6 personas a escala mundial se ve afectada por la soledad. A su vez, se estima que la soledad está ligada a 100 muertes cada hora –más de 871.000 muertes anuales. Recuperado de: https://www.who.int/es/news/item/30-06-2025-social-connection-linked-to-improved-heath-and-reduced-risk-of-early-death–. En Estados Unidos, los problemas de salud mental entre los adolescentes aumentaron 35% entre 2016 y 2023. En la actualidad, más de 20% de los adolescentes estadounidenses padecen algún tipo de trastorno, como ansiedad, depresión o problemas de conducta. Recuperado de: https://www.dw.com/es/adolescencia-y-salud-mental-basta-con-prohibir-el-celular/a-72146735.↩︎

  19. La traducción es nuestra. Párrafo original completo: “But to ignore any commitment to truth (or skirt around it with legal disclaimers) is ultimately to play a second order game where AI developers get to reap financial rewards while avoiding any responsibility for veracity. Under such a structure, machines can only ever generate truths of convenience, profit, and domination. Models will tell you what you want to hear, what a company wants you to hear, or what you have always heard”.↩︎

  20. Romains, J. (1945). Los hombres de buena voluntad. Tomo III: los amores infantiles. Buenos Aires, Argentina: Losada.↩︎