Segunda de dos partes. Lee aquí la primera.
El filósofo jamaquino-estadounidense Charles W. Mills propuso famosamente que la ignorancia en las sociedades contemporáneas se estructura de maneras que reflejan los intereses de los grupos sociales dominantes. Las epistemologías de la ignorancia, trabajadas desde la filosofía feminista y antirracista, se interesan por la pregunta “¿qué es lo que no sabemos, y por qué?” En lo que sigue, argumentaré que el éxito de las IA generativas y la aceptación social de los imaginarios que nos quieren inculcar dependen fundamentalmente de nuestra ignorancia colectiva de ciertos hechos relevantes que todxs deberíamos de conocer. Y de que, al inculcar sus propios valores en sus sistemas de IA generativa, tal ignorancia se vuelva una ignorancia automatizada.
Voy a empezar con un ejemplo que me parece muy emblemático. Desde 2022 varias empresas de IA han lanzado generadores de imágenes. Sus creadores los llaman “motores para la imaginación”, y nos apantallan con imágenes bellas y extrañas de objetos y sujetos conjugados de manera tan sorpresiva, que a ningún artista se le hubiera ocurrido pintarlos así. OpenAI, la empresa detrás de ChatGPT, sacó en abril de 2022 un generador de imágenes llamado DALL-E 2, y en un vídeo explicativo publicado en YouTube, lanza la pregunta: “¿alguna vez has visto un oso polar tocando el bajo?” ¡Un oso polar tocando el bajo! Qué imaginación, caray. Bueno, en 2022 ya habíamos vivido dos años de pandemia, supongo que nos hacía falta un poco de diversión. Cualquier cosa para distraernos de las imágenes terribles de osos polares flaquísimos y muriéndose de hambre porque su hábitat se estaba encogiendo por el calentamiento global…
En efecto, antes hablábamos de la necesidad de alcanzar un acuerdo global para limitar las emisiones, impulsar la transición a energías renovables, o hasta de inventar nuevos modelos económicos. Se hablaba de la importancia de lograr estas cosas antes de 2030, incluso antes de 2025, para evitar sobrepasar los puntos de inflexión, a partir de los cuales el ritmo de calentamiento global podría acelerarse y volverse impredecible. Ahora, los medios hablan de los nuevos estimados sobre cuándo llegará “la singularidad”, la cual, nos aseguran los tescrealistas, siempre está a la vuelta de la esquina.
Aquí les va una lista de cosas que la persona promedio ignora cuando le pide a su chatbot preferido contarle una broma, o hacer un videíto de una ardilla probando spicy ramen, o un autorretrato en el estilo de Studio Ghibli:
1. El costo ambiental[1]
La energía que consume la IA generativa depende de centros de datos. Aunque la industria de los centros de datos existe desde hace varias décadas, empezó a aumentar precipitadamente en 2017 con el desarrollo de las inteligencias artificiales. En un reporte de este año, el Fondo Monetario Internacional estimó que si todos los centros de datos del mundo fueran un país, en 2023 habría sido el décimo país en términos de su consumo mundial de electricidad (adelante de Francia y Reino Unido). Según sus proyecciones, en 2030 podrían consumir la misma cantidad de electricidad que consumió la India en 2023.
La mayor parte de la electricidad consumida por el uso de IA es por tareas realizadas por IA generativas, y según las proyecciones, el uso de IA generativas puede cuadruplicarse de aquí a 2030. Hoy día, alrededor de la mitad de la electricidad usada por los centros de datos es generada usando combustibles fósiles (gas natural y carbón), y se estima que seguirá aumentando el uso de combustibles fósiles de aquí a 2030. Algunas compañías, como SpaceX de Elon Musk, han recibido denuncias de las comunidades vecinas a los sitios donde han construido sus centros de datos, por su uso de generadores de reserva de gasóleo que emiten niveles peligrosos de partículas tóxicas. En este reportaje, por ejemplo, varixs activistas y funcionarixs alegan que Musk ha aprovechado el estado debilitado de la Environmental Protection Agency, el cual ha sufrido importantes cortes presupuestales bajo las dos administraciones de Trump, para evadir la regulación. Otras comunidades denuncian el ruido constante de los centros de datos, que no les deja dormir. Sin dejar de lado los aumentos en los costos de energía para consumidores en estados donde las compañías de Big Tech reciben concesiones a tasas preferenciales y exenciones fiscales; y la contaminación de sus fuentes de agua potable.
Tal vez algunxs lectorxs habrán escuchado la cifra de que por cada 10–50 prompts, ChatGPT consume 500 ml de agua. Pero ¿sabían que entre 80 y 90% de esa agua era agua potable? La mayor proporción de centros de datos se construyen en áreas desérticas que ya padecen de estrés hídrico, y acaban acaparando el agua de la que dependen las comunidades locales para subsistir, para enfriar sus procesadores. En los últimos años Querétaro se ha convertido en una de las regiones con mayor concentración de centros de datos en América Latina, pese a las protestas de sus habitantes. Como señaló la lingüista y activista ayuuk Yásnaya Elena A. Gil: “Mientras que en las metrópolis el desarrollo de la inteligencia artificial, las nuevas tecnologías y sistemas como ChatGPT son celebrados y abren nuevos debates, aquí surgen otras preguntas: ¿cuánto más extractivismo podrán soportar los pueblos y los territorios, que históricamente han sido explotados como canteras del mundo, para sostener la creciente demanda de minerales que requieren las nuevas tecnologías?”
2. La labor humana que hace “inteligentes” a las IA
Todo sistema de inteligencia artificial depende de enormes cantidades de labor humana: para que un modelo estadístico “reconozca” una cara, o “sepa” distinguir entre un gatito y un perrito, o un auto sin conductor “vea” un cruce peatonal, debe haberse entrenado anteriormente con enormes cantidades de imágenes que trabajadores humanos hayan etiquetado con texto. Generalmente, este trabajo (llamado “clickwork”) es ejecutado por personas en el Sur Global (lugares como Venezuela y Colombia, o Kenia y Ghana), que hacen “tareas” digitales a todas horas del día o de la noche por un pago ínfimo.
Aparte del etiquetado, una de las más notorias y nefastas tareas de los “clickworkers” es moderar contenidos violentos o pornográficos. De hecho, resulta que la gran mayoría de las IA generativas comerciales han sido entrenadas con este tipo de contenido, e incluso con material que muestra situaciones de abuso infantil. A costa de su propia salud mental, trabajadores en Kenia recibieron $2 por hora para revisar el peor tipo de basura humana, para tratar de prevenir que ChatGPT escupiera diatribas racistas, xenófobas, misóginas… En cuanto a lxs trabajadores, si tratan de sindicalizarse para exigir mejor remuneración, son despedidos, o las empresas sencillamente van a buscar otro país con trabajadores menos rijosos.
Y todo esto sin hablar de la labor de personas —a veces niñxs de siete años— que trabajan en minas, en condiciones extremadamente peligrosas e insalubles, para extraer los minerales raros que componen los chips y procesadores, por el equivalente de $1 por día. Kate Crawford y Vladan Joler han estimado que para que unx niñx trabajando en una mina en el Congo gane lo mismo que gana Jeff Bezos, el CEO de Amazon, en un día, tendría que trabajar 700,000 años sin parar.
3. Los hechos
Cuando recibimos todas nuestras noticias de las redes sociales, hay otras cosas que acabamos ignorando, porque los dueños de Facebook, X y YouTube nos impulsan ciertos tipos de contenidos según nuestro perfil sociopsicológico y suprimen otros. En múltiples instancias, Facebook y YouTube han ocultado sistémicamente contenidos antirracistas —por ejemplo videos con la etiqueta #BlackLivesMatter, o posts que documentan graves violaciones de derechos humanos, como los genocidios en Myanmar y Palestina—, al tiempo que se niegan a quitar contenidos de ultraderecha y de supremacistas blancos, o de que incluso los promocionan.
4. La tecnovigilancia
También tratamos de ignorar la sospecha –acertada– de que nuestros aparatos nos están escuchando, rastreando, vendiendo nuestros datos más íntimos a compañías para que nos puedan mandar contenidos y publicidades personalizados, e incluso tratar de manipular nuestros hábitos de consumo, de socialización, de votación. Durante las protestas masivas en Los Ángeles a inicios de 2025 contra las incursiones de ICE en los vecindarios latinos, los manifestantes quemaron los autos sin conductor de Google. Sus sistemas incluyen cámaras que graban constantemente sus entornos, por lo que, así como los Cybertrucks de Tesla, se han vuelto un símbolo de odio para estadounidenses que se rebelan contra la tecnovigilancia distópica de la administración de Trump.
***
Cada vez que sacan una nueva versión de un generador de imágenes o videos, los Tech Bros y sus aliados se congratulan no sólo por su inteligencia, sino por su imaginación. No solo eso: quieren colonizar nuestras propias imaginaciones, para hacernos creer que ChatGPT se va a llevar nuestros trabajos y no pasa nada, todo tranqui; que modelos estadísticos entrenados con toda la basura más tóxica de la humanidad van a resolver los problemas más apremiantes de nuestras sociedades; que ni agua, ni bosques, ni salud mental, ni cuerpo son requisitos para una vida llena de placeres.
Yo digo que necesitamos otros imaginarios. No los empobrecidos imaginarios artificiales de los Tech Bros y sus necrotecnologías. Necesitamos imaginar que un futuro dominado por IA generativas no es inevitable. Necesitamos imaginar futuros sin tecnofacismos, sin la amenaza inminente del colapso societal. Necesitamos imaginar cómo podemos habitar esta tierra, junto con todos sus otros seres vivos, sintientes, conscientes, y hacer vidas buenas y dignas donde sea que estemos. Necesitamos imaginar modelos estadísticos entrenados para hacer ciertas tareas bien, para ayudarnos a resolver determinados problemas societales y ambientales, con un uso de recursos naturales sostenible y moderado. Necesitamos imaginar un mundo en que las redes sociales sean un bien público, en que podamos charlar con nuestrxs amigxs y parientes sin vigilancia, sin anuncios y sin manipulación. O bien, si queremos, necesitamos poder decir “ahorita no” a las tecnologías y redes digitales, sin miedo de quedarnos sin acceso a servicios esenciales.
Llama mucho la atención que, aunque nos quieran vender los asistentes digitales como tecnologías para mejorar nuestra productividad en el trabajo, en realidad la mayoría de las personas los usan para platicar, para pedir consejos y terapia, para aliviar un poco la soledad. Esto nos habla de que necesitamos imaginar nuevos modelos económicos en que se valoren y se compensen de verdad los trabajos de cuidado, que están en la base de todo lo que hacemos.
Finalmente, en vez de hablar de si las IA pueden o no tener consciencia, necesitamos cultivar nuestra propia consciencia: la consciencia política de ciudadanxs, quienes sabemos que tenemos derechos y deberes hacia nosotrxs mismxs y hacia nuestras futuras generaciones.
[1] Muchos de los datos en esta sección los vi presentados por primera vez en una charla de Cristóbal Reyes, investigador doctoral del Instituto de Investigaciones Económicas de la UNAM. Cristóbal Reyes, “La materialidad de la inteligencia artificial. Un análisis crítico de sus impactos económicos y socioambientales”, Seminario “Ciencias y Mitos de la ‘Inteligencia’. Un recorrido histórico/filosófico de las mutaciones de un concepto”, Instituto de Investigaciones Filosóficas, UNAM, el 20 de octubre de 2025.
