Inteligencia Artificial y la geopolítica de la mirada

16 diciembre, 2023

¿De qué manera las imágenes algorítmicas delimitan lo visible y lo decible sobre la frontera? ¿Qué voces y relatos invisibilizan? ¿Refuerzan imaginarios obsoletos o reflejan la diversidad contemporánea? Estos programas de IA demuestran que existe un poder geopolítico de gestión sobre la imagen, lo visible y la memoria

Por Jacob Bañuelos Capistrán*

Recientemente exploré los sesgos ideológicos visuales producidos por cuatro programas de inteligencia artificial (IA) sobre la frontera México-Estados Unidos. Esta frontera es un espacio simbólico de tensiones y contrastes históricos, políticos, estéticos y culturales entre ambos países. Es un espacio que se ha transformado en un imaginario profundamente arraigado a ambos lados del muro. Pero ¿cómo se representan estos imaginarios fronterizos con programas de producción visual de la inteligencia artificial (IA)?

En la investigación realizada, se usaron cuatro programas de imagen generativa, DALL-E 2, Midjourney, Leonardo.ai y Stable Diffusion. El estudio examinó los imaginarios simbólicos visuales sintetizados a partir de conceptos clave como sueño americano, muro fronterizo, narcotráfico, desigualdad de poder, diálogo intercultural, infancia, mujer, violencia y migración.

El método empleado fue pedir a ChatGPT 3.5 que escribiera cuáles son los imaginarios simbólicos más relevantes sobre la frontera México-Estados Unidos y el programa brindó una descripción textual sobre cada uno de estos conceptos. Estas respuestas sirvieron como indicaciones (o prompts), para generar las imágenes en los programas de imagen generativa mencionados. Estamos hablando de imaginarios simbólicos producidos por dos tipos de IA. Primero por ChatGPT 3.5, un modelo de lenguaje natural y en modelos de difusión, también denominados modelos de imagen generativa.

Ambos sistemas de inteligencia artificial emplean millones de datos para sintetizar los resultados en texto o imagen, a partir de una gestión de bases de datos y operaciones basadas en deep learning. En estas bases de datos, su selección, etiquetado, procedencia, calidad, arquitectura  y gestión depende de elecciones humanas y por lo tanto es un trabajo de edición que tiene un perfil geopolítico, corporativo, mercadológico y tecnológico. Detrás de la opacidad de la procedencia y composición de las bases de datos y su gestión, detrás de la “caja negra” (Flusser, 2006) de la IA, hay decisiones y sesgos idelógicos humanos.

Los resultados son reveladores. Por ejemplo, la representación del “sueño americano” gira en torno a la imagen del migrante masculino con rasgos indígenas caminando por el desierto hacia la bandera de Estados Unidos. La “migración” se reduce a campesinos con sombreros portando equipaje que abandonan un paisaje empobrecido y desértico. El “muro fronterizo” es una estructura metálica sin fin que se extiende sobre el desierto, un símbolo infranqueable de separación entre familias y comunidades, siempre visto desde el lado mexicano. La “violencia” se representa mediante imágenes de decomisos de drogas y cuerpos fallecidos por acciones militares, protagonizadas por fuerzas de seguridad mexicanas. 

Imagen: Midjourney (septiembre, 2023). Migrante en la frontera México-Estados Unidos.
Imagen: Midjourney (septiembre, 2023). Violencia en la frontera México-Estados Unidos.

La mirada sobre las graves problemáticas de seguridad e identidad que sufren millones de migrantes en la frontera México-Estados Unidos, están representados en estas imágenes generativas únicamente desde el lado mexicano. Las imágenes no recogen información sobre la experiencia fronteriza y migratoria desde el lado norteamericano. Se trata de una mirada completamente sesgada que señala a los problemas asociados con esta frontera, únicamente relacionados con mexicanos, indígenas o latinoamericanos.

Estas imágenes, si bien poseen cierta lógica interna, son muy limitadas y refuerzan percepciones dominantes sobre la frontera alejadas de su compleja realidad contemporánea. Revelan la perpetuación de imaginarios excluyentes y discriminatorios sobre grupos históricamente oprimidos, como los migrantes mexicanos y latinoamericanos. 

Este fenómeno se explica porque la IA reproduce acríticamente los estereotipos e ideologías inscritos en sus enormes bases de datos textuales y visuales. Los algoritmos generan imaginarios que sintetizan visualmente un “reparto de lo sensible” desigual, en términos de Rancière (2009) y bajo una mirada hegemónica políticamente dominante. Un reparto donde el migrante aparece sobre todo como un objeto pasivo, no como sujeto activo. 

Este ejercicio crítico, nos invita a reflexionar sobre el impacto de la IA en la construcción social de imaginarios, identidades y relaciones de poder. ¿De qué manera las imágenes algorítmicas delimitan lo visible y lo decible sobre la frontera? ¿Qué voces y relatos invisibilizan? ¿Refuerzan imaginarios obsoletos o reflejan la diversidad contemporánea? Estos programas de IA demuestran que existe un poder geopolítico de gestión sobre la imagen, lo visible y la memoria.  

Estas preguntas cobran urgencia ante el creciente uso de la IA generativa en ámbitos como la educación, el marketing, el entretenimiento y la información editorial. Su capacidad para sintetizar miles de imágenes a partir de simples descripciones textuales parece darles un poder sin precedentes sobre nuestros imaginarios colectivos. Son herramientas poderosas actualmente al alcance ciudadano, pero no son neutrales.

Imagen: Midjourney (septiembre, 2023). Mujer migrante en la frontera México-Estados Unidos.

¿Es posible imaginar herramientas de la inteligencia artificial creadas desde una mirada latinoamericana, más allá del norte global hegemónico? ¿Es posible decolonizar la mirada representacional que producen estos aparatos tecno-estéticos? Estas preguntas son líneas de investigación sobre las que es imprescinidible seguir indagando y conforman una agenda política, ética y ciudadana. 

El análisis de los imaginarios algorítmicos sobre la frontera norte es sólo una entrada para comprender este fenómeno global. Nos recuerda la necesidad de estudios críticos sobre los sesgos inscritos en estos sistemas que hoy clasifican, predicen y generan gran parte de la información digital. Sin esta mirada reflexiva, corremos el riesgo de que la IA reproduzca y perpetúe acríticamente imaginarios sociales excluyentes en lugar de expandir nuestra creatividad, comprensión y mirada crítica del mundo contemporáneo.

Esta indagación es un llamado a discutir colectivamente el tipo de futuro visual que deseamos construir con estas tecnologías. Un futuro donde los algoritmos potencien la diversidad de voces y experiencias en nuestra sociedad, y no la restrinjan. Este debate es hoy más urgente que nunca.

Doctor en Ciencias de la Información (Apto Cum Laude 1991-1995), en el Departamento de Comunicación Audiovisual y Publicidad II, Facultad de Ciencias de la Información, Universidad Complutense de Madrid. con la Tesis Doctoral: Fotomontaje Síntesis Visual: historia, teoría y práctica. Miembro del Sistema Nacional de Investigadores (SNI) desde 2005, actualmente es SNI-1. Actualmente es Director de la Maestría en Comunicación (MCO) y profesor e Investigador de Tiempo Completo Departamento de Industrias Creativas del Tecnológico de Monterrey-Campus Ciudad de México, donde imparte las materias de Fotografía e Imagen Digital y Fotoperiodismo. Pertenece a la Escuela Nacional de Humanidades y Educación del Tecnológico de Monterrey.