pancarta sol scaled

Gustavo Hernández: La democracia condicionada en la era algorítmica 

Compartir

 

Uno de los mitos que han prevalecido en nuestro tiempo es esa idea de que la inteligencia artificial  (IA) va a reemplazar, o incluso superar, la inteligencia humana. Basta pensar en películas como 2001: Odisea Espacial de Kubrick o Blade Runner de Ridley Scott. Al final, este supuesto nace de una visión un poco fatalista y exagerada de lo que realmente significa ser inteligente.

La inteligencia humana tiene algo especial: nos movemos con sentido común, intuición, conocimiento tácito, y podemos transitar en la ambigüedad sin perder el rumbo. Todo esto no sale de la nada. Aprendemos con el cuerpo, a través de emociones, costumbres, relaciones y el contexto en el que vivimos. No basta con procesar datos: la experiencia humana es mucho más rica y compleja y nosotros nos encargamos muchas veces de hacerla complicada.

Más allá de la ética aplicada: hacia una teoría crítica de la IA 

Cuando hablamos de los retos de la inteligencia artificial, Daniel Innerarity señala tres enfoques que suelen destacarse: la moratoria tecnológica, el complemento ético y la teoría crítica.

La moratoria tecnológica plantea una pausa, vale decir, detener sistemas avanzados hasta que existan regulaciones claras. Suena lógico, sobre todo viendo lo rápido que avanza la tecnología, pero este punto de vista pasa por alto que la innovación tecnológica, una vez que arranca, no se detiene, sobre todo en un mundo donde todos compiten. Además, la moratoria exagera los riesgos catastróficos y deja de lado la dimensión sociotécnica, como si el problema fuera solo técnico y no también social.

El complemento ético propone crear códigos de conducta para un uso responsable de la IA, como las normas europeas sobre transparencia, no discriminación y autonomía humana. Estos esfuerzos son valiosos, no cabe duda, pero se quedan cortos. Se enfocan demasiado en el “deber ser” del individuo y pueden terminar en pura retórica sin cuestionar de verdad el trasfondo político y los intereses crematísticos detrás del mercado de los algoritmos.

Es por eso que Innerarity va más allá de los dos puntos anteriores y propone una teoría crítica de la sociedad red: No basta con pedir que la IA sea responsable y humanista. Hay que investigar las condiciones de fondo que hacen posible o imposible que actuemos bien con estas tecnologías. Urge cuestionar los “porqués” políticos subyacentes a las prácticas algorítmicas.

La democracia condicionada: más allá del impacto externo 

Una de las ideas más sugerentes de Innerarity para analizar la intersección entre democracia y tecnología es la distinción entre condicionamiento e impacto, que evoca las mediaciones sociales propuestas por Jesús Martín-Barbero y la teoría de la persuasión informativa de Harold Lasswell.

Esta distinción ayuda a dejar atrás el pánico digital para mirar el asunto con más matices y sosiego, reconociendo la presencia de la inteligencia humana en los procesos de generación de inteligencia artificial.

El condicionamiento digital no se queda en la superficie, es una mediación que permea nuestra cotidianidad, vale decir, en cómo consumimos información, en cómo nos relacionamos, en cómo funcionan las instituciones, los sistemas de votación, los procesos legislativos, la administración pública. Incluso, el condicionamiento afecta las expectativas sobre la transparencia, la privacidad y las formas de participación política. La IA no es un actor externo que irrumpe de pronto en el sistema social, sino una entidad que ya está dentro, que reestructura y moldea todo desde adentro.

Techies y Fuzzies: la cooperación entre saberes 

Innerarity propone una salida nítida ante los retos complejos de la IA: Que tecnólogos (techies) y humanistas (fuzzies) trabajen de manera mancomunada. Puede sonar como un lugar común, pero en el fondo apunta a una relación entre los saberes técnicos, que buscan eficiencia y control, y los saberes humanísticos, que se ocupan de interpretar y comprender.

Los tecnólogos tienen mucho que ganar si aprenden de los humanistas a cuestionar sus propias ideas, a ver los valores y sesgos en sus creaciones, y a valorar las dimensiones que no se pueden medir con números.  Los humanistas, por su lado, pueden aprender a pensar con rigor sobre cómo funcionan realmente los sistemas, sus limitaciones y las posibilidades concretas de la tecnología, no solo las imaginadas.

La democracia compleja: más allá del individualismo y el colectivismo 

Uno de los aportes más potentes de Innerarity es su concepto de democracia compleja, una democracia capaz de manejar las tensiones de la era de los algoritmos y de comunicación digital. Esta democracia no se encierra en una sola perspectiva, sabe gestionar la incertidumbre, y mantiene abiertos los espacios para la deliberación y el conflicto.

Esto cobra especial importancia hoy, cuando proliferan plataformas digitales que reducen la participación política a likesshare y retuits , o sistemas de votación en línea que parecen democracia directa pero que, en el fondo, no tienen los mecanismos de debate , representación y protección de las minorías propias de una democracia constitucional .

La tentación tecnocrática promete arreglar todas las ineficiencias de la política democrática usando soluciones algorítmicas. Pero ante esta ilusión, Innerarity apuesta por el valor de delegar democráticamente. Y no habla de rendirse o soltar el control del pueblo, sino justo lo contrario: ejercer la soberanía de forma consciente. Como él dice, defender la delegación no es apoyar la política autoritaria, ni los gobiernos tecnocráticos, ni dejarlo todo en manos de algoritmos.

Más bien, se trata de recordar que la ciudadanía —que es quien realmente manda en una democracia— también debe decidir hasta dónde quiere controlar el proceso político.

En fin, la tesis principal de Innerarity es clara: “la democracia en la era de la inteligencia artificial no va a desaparecer ni a ser reemplazada; va a estar condicionada”.

Así, nos quita el peso de la elección falsa entre aceptar todo sin pensar o rechazarlo por nostalgia. Nos motiva, en cambio, a entrar de lleno en el debate, a moldear ese condicionamiento digital desde la deliberación pública, el diseño de instituciones y la política diaria.

Al final, el futuro no está ya programado ni codificado; se escribe, día a día, en ese espacio siempre abierto de la política democrática.

Profesor Titular de la UCV y de la UCAB. Director del Instituto de Investigaciones de la Comunicación y de la Información de la UCAB. Especialista en el área de Educación, Comunicación y Medios.

 

Traducción »