
Ni inteligente, ni artificial
Una empresa colonial extractiva
por Celeste Choclín
El fetichismo de la tecnología
Vivimos en la euforia de la era tecnológica, parecería que la inteligencia artificial va a ser aquella que tome lo mejor de lo humano y logre superarlo. La IA viene acompañando nuestra experiencia digital y la vida cotidiana casi sin darnos cuenta, desde sistemas de vigilancia hasta buscadores, pasando por el procesamiento de cada dato personal que se registra. Pero a comienzos de 2023, cuando salió la versión del chat GPT-4 y se empezó a esbozar la idea de que miles de puestos de trabajo en el mundo podían ser sustituidos, se pasó de la euforia a la preocupación. Parecía que el reemplazo del hombre por la máquina no era parte de la ciencia ficción, sino de un futuro cercano.
“La desvalorización del mundo humano crece en razón directa de la valorización del mundo de las cosas”, señalaba Karl Marx en pleno proceso de industrialización, cuando la mercancía alcanzaba el sentido de fetiche; era un objeto de admiración mientras que el trabajador se encontraba cosificado como mera fuerza de trabajo.
Dos siglos después de los “Manuscritos económico-filosóficos” de Marx, la inteligencia artificial aparece como el nuevo fetiche, el gran salvador, la única alternativa posible. Y no sólo como dispositivo técnico, sino también como una infraestructura, un sistema de poder, un modelo de negocio, un mecanismo político. Un modo de erigir la verdad que perfora el pensamiento crítico y genera alienación.
¿Una verdad algorítimica?
Pensamos un tema, se lo preguntamos al Chat GPT-4 y el resultado es un enunciado simple, preciso, directo, sin preguntas, ni dobles sentidos: la Verdad. Eric Sadin en “La inteligencia artificial o el desafío del siglo” sostiene que asistimos a un cambio de estatuto en las tecnologías digitales: “De ahora en adelante, ciertos sistemas computacionales están dotados (nosotros los hemos dotado) de una singular y perturbadora vocación: la de enunciar la verdad”. No sólo lo digital tiene la función de almacenamiento, de búsqueda, sino que tiene un poder de aletheia, en el sentido que se le daba al término en la filosofía griega. Es decir, la idea de sacar el velo de las apariencias y formular la Verdad: “lo digital se erige como un órgano habilitado para peritar lo real de modo más fiable que nosotros mismos”.
Desde el ámbito laboral, pasando por el de la justicia, las actividades bancarias, el diseño o la medicina, la inteligencia artificial toma un camino antropomórfico donde se busca atribuir a los procesadores cualidades humanas, sobre todo para evaluar situaciones y sacar conclusiones de ellas. “Ningún artefacto, en el transcurso de la historia, fue el resultado de una voluntad de reproducir de modo idéntico nuestras aptitudes, lo que se trató de hacer fue paliar nuestros límites corporales, elaborar dispositivos con una mayor potencia física que la nuestra”. Lo que hoy tratan de hacer los modelos computacionales es tomar la estructura del cerebro como el “parangón a duplicar”. Y concluye Eric Sadin: “La humanidad se está dotando a grandes pasos de un órgano para prescindir de ella misma”.
El valor de la tecnología digital como la gran salvación de la humanidad se fue gestando desde los años 60 y muy pronto tuvo toda una serie de discursos de carácter acrítico que se encargaron de difundir sus logros e instalar términos sumamente seductores tales como “revolución digital” o “tecnología de ruptura”. Por más que se levantan voces planteando la necesidad de límites y que las propias empresas desarrolladoras promuevan cada tanto grupos de reflexión ética, no se cuestiona al propio modelo basado en la orientación y la gestión en todo momento de los comportamientos humanos. Esta gestión se enmarca en un nuevo régimen de poder que el autor denomina tecnoliberalismo, una suerte de “mano invisible” como imaginaba Adam Smith para formular el liberalismo, pero ahora robotizada. Si la “mano invisible” habilitaba el libre juego entre las empresas, ahora hace lo propio con las corporaciones tecnológicas, financieras y demás actores que conforman los núcleos de poder.
En realidad se toma la idea de una inteligencia artificial modelada sobre nuestra inteligencia humana, pero es un error porque supone una inteligencia desprovista de cuerpo, y se excluyen así “una infinidad de dimensiones que nuestra sensibilidad sí puede capturar”. Y en segundo lugar, la inteligencia no puede vivir aislada, encerrada en su propia lógica, “la inteligencia es indisociable de las relaciones abiertas e indeterminadas con los seres y las cosas, de un contexto que evoluciona y se singulariza”.
Es que la vida, la propia inteligencia humana, y los afectos no se pueden reducir a modelos automatizados. “De ningún modo nos enfrentamos con una réplica de nuestra inteligencia, ni siquiera parcial, sino que estamos ante un abuso del lenguaje que nos hace creer que esa inteligencia estaría naturalmente habilitada para sustituir a la nuestra con la finalidad de asegurar una mejor conducción de nuestros asuntos”.
De lo que se trata en realidad es de un modelo que se erige como fetiche, un gran enunciador de la Verdad, y detrás de ello se procura satisfacer todo tipo de intereses particulares.
Ni inteligente, ni artificial
¿Qué tipos de políticas están contenidas en el modo en que esos sistemas cartografían e interpretan el mundo? ¿Cuáles son las consecuencias de incluir la IA en los sistemas de toma de decisiones en los lugares de trabajo, la educación, la salud, las finanzas, la justicia y el gobierno? Son algunas de las preguntas que Kate Crawford se plantea en su libro “Atlas de la inteligencia artificial”.
En consonancia con Sadin, Crawford señala que se trata de sistemas diseñados para servir a los intereses dominantes basados en dos mitos. El primero es que los sistemas no humanos son análogos a la mente humana.
Eso “presupone que, con el entrenamiento adecuado o los recursos suficientes, se puede crear desde cero una inteligencia parecida a la de un ser humano sin tener en consideración las maneras fundamentales en que las personas se encarnan, se relacionan y se ubican dentro de contextos más amplios”.
El segundo mito es que “la inteligencia es algo que existe de forma independiente, como algo natural y separado de las fuerzas sociales, culturales, históricas y políticas”.
Este concepto de la inteligencia “ha causado un daño enorme durante siglos y se ha usado para justificar relaciones de dominación desde la esclavitud hasta la eugenesia”, señala Crawford. Se trata de una suerte de recreación del dualismo cartesiano (división mente-cuerpo), aplicado a la inteligencia artificial, donde se limita a verla como “incorpórea, liberada de cualquier relación con el mundo material”. La autora señala que ésta no es ni inteligente, ni artificial. El nombre se debe más al marketing como un modo de llamar la atención, sobre todo cuando se quiere obtener financiamiento, pero en el ámbito de la investigación se utiliza la expresión: “aprendizaje automático”.
No es inteligente porque no funciona de manera autónoma y tampoco es artificial. Es algo material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, datos personales y clasificaciones: “Los sistemas de IA no son autónomos, racionales ni capaces de discernir algo sin un entrenamiento extenso y computacionalmente intensivo, con enormes conjuntos de datos o reglas y recompensas predefinidas. De hecho, la IA tal como la conocemos depende por completo de un conjunto mucho más vasto de estructuras políticas y sociales. Y, debido al capital que se necesita para construir IA a gran escala y a las maneras de ver que optimiza, los sistemas de IA son, al fin y al cabo, diseñados para servir a intereses dominantes ya existentes”.
Se trata de una tecnología que busca “capturar el planeta de una forma que sea legible por computadora” y para ello está “creando y normalizando sus propios mapas, a modo de visión cenital centralizada del movimiento, la comunicación y la mano de obra humana”. Por lo tanto, el objetivo de la inteligencia artificial y de los poderes que la detentan no es crear un atlas del mundo, sino ser el Atlas, “la forma dominante de ver las cosas. Este impulso colonizador centraliza el poder en el campo de la IA: determina cómo se mide y define el mundo, mientras, al mismo tiempo, niega que se trate de una actividad inherentemente política”.
Una industria extractiva
Crawford define a la inteligencia artificial como una industria de extracción:
“La creación de los sistemas de IA contemporáneos depende de la explotación de los recursos energéticos y minerales del planeta, de la mano de obra barata y los datos a gran escala”.
Lejos de su promoción como una industria sustentable, el sector tecnológico utiliza una gran cantidad de minerales, agua, energía, pero los costos de esa extracción por la devastación que hacen del medioambiente y de los pueblos que viven de esos recursos “nunca los asume la propia industria”.
Además, la IA está hecha de mano de obra humana a partir de trabajadores digitales precarizados que trabajan a destajo, a los que se les paga muy poco y realizan “microtareas para que los sistemas de datos parezcan más inteligentes de lo que realmente son”, a un ritmo que sigue el de los dispositivos automatizados donde los mecanismos de vigilancia y control son sumamente exhaustivos.
Así como hablamos de una industria basada en la extracción de recursos naturales, mano de obra, también señalamos la extracción de aquello imprescindible para hacer funcionar la maquinaria de los sistemas automatizados: los datos que proveemos todos nosotros, todo el tiempo. “Todo material digital de acceso público -incluidos los datos personales o potencialmente dañinos- puede recolectarse para entrenar conjuntos de datos que luego se utilizan para producir modelos de IA. Hay conjuntos de datos gigantescos llenos de selfies, gestos con la mano, gente manejando, bebés llorando, conversaciones de grupos sobre noticias de la década de 1990. Todo puede utilizarse para mejorar algoritmos que realizan funciones como el reconocimiento facial, las predicciones de lenguaje y la detección de objetos”. Al tomarlos como modelo de forma aislada, no se tiene en cuenta el contexto o el ámbito donde esas imágenes fueron tomadas, por tanto, “más allá del serio problema de la privacidad y del capitalismo de vigilancia vigente, las prácticas actuales de trabajar con datos en la IA plantean profundas preocupaciones éticas, metodológicas y epistemológicas”.
Nota colaborativa con la Revista Kiné Nº 164 Octubre / Diciembre 2024.
Celeste Choclin es Doctora en Ciencias Sociales (UBA), Magister en Comunicación e Imagen Institucional (UCAECE – Fundación Walter Benjamin), Lic. en Comunicación (UBA), docente universitaria UBA profesora de Teorías de la Comunicación en UCES y UCA; además de investigadora en comunicación y cultura urbana.