Panóptico digital y cultural

por Maia Kiszkiewicz

Además de periodista, soy escritora y hago ficción. Hace poco empecé a compartir mis textos en redes sociales y me ayuda a que se difundan. Uno de los escritos que realicé durante el 2020 tiene final abierto. Una chica se golpea la cabeza, silencio, final. “Nos ponemos en contacto contigo para ofrecerte ayuda —me dijeron desde Instagram cuando puse en historias mi relato—. Una persona piensa que necesitas más apoyo en este momento y nos ha pedido que te ayudemos. Hemos eliminado tu publicación porque no cumple las normas comunitarias”.
El mensaje era confuso. ¿Uno de mis contactos, en vez de preguntarme cómo estoy, le pidió a la red que me mande un mensaje y, de paso, vieron que incumplía algo? o ¿Instagram se escudó en sus seguidores para bloquear la publicación? “Salvo que la red lo informe, no es posible saber si un contenido se elimina por denuncias o porque el algoritmo detectó algo que va contra las normas”, dice, en comunicación con Periódico VAS, Pablo Pissi, programador, docente de la Universidad Nacional de Quilmes y parte de la cooperativa de desarrollo de software GAIA y explica, también, que a los algoritmos se los entrena haciéndoles clasificar una gran cantidad de imágenes. “Se les pide que reconozcan, por ejemplo, si son apropiadas o no. Luego se valida comparando si coinciden con las que les humanes consideran apropiadas o inapropiadas. El tema es que, cuando les humanes clasifican las imágenes puede haber sesgos. Entonces, si quienes clasifican imágenes son racistas o misóginos, los algoritmos probablemente también lo sean”.
“A mí me cerraron mi primera cuenta de Instagram por publicar fotos de desnudes en movilizaciones”, dice, en comunicación con Periódico VAS, Julieta Bugacoff, reportera gráfica, quien había realizado un registro periodístico de fotos que se viralizaron y en las que empezaron a aparecer reacciones agresivas hacia las retratadas. Finalmente, le cerraron la cuenta. “Creo que estas situaciones se dan porque hay una tensión constante entre la necesidad de establecer reglas para el uso de una red social, y la dificultad que implican los grises como puede ser un desnudo artístico. Todo esto en un contexto de cambio de paradigma en materia de género y concepción del cuerpo”, concluye Julieta.
“Para generar los patrones de los algoritmos también se analizan años de gente subiendo fotos y dando, o no, like. Por ejemplo, se puede evaluar que si una persona recibe reacciones positivas habitualmente y en una foto no las tiene, esa imagen no fue del agrado de la mayoría de sus seguidores. No like o denuncias pueden ser patrones”, dice Pablo.
“Como artista que trabaja con el cuerpo, la censura ha sido una constante en mi relación con las redes sociales”, expresó, el 25 de noviembre de 2019, Ana Harff, fotógrafa especializada en retratos y desnudos femeninos y de disidencias. Su búsqueda se relaciona con la visibilidad de historias diversas. “Paloma tuvo un incidente donde gran parte de su cuerpo fue consumido por el fuego. Entre ellas, sus pezones y senos”, escribe Ana para acompañar una foto en la que se ve una mujer desnuda fumando. La versión disponible de la imagen tiene tapada la parte del pecho, la original fue eliminada. “Ninguna censura me impactó tanto como el día que removieron esta foto por ´contenido pornográfico´. No estaba solo dolida por mí misma, sino por Paloma y por todas las otras historias que estamos intentando contar pero no son escuchadas”, expresó Harff.
“Es posible que el algoritmo esté entrenado para detectar esta diferencia (un cuerpo lastimado) y señalar que hay algo inapropiado”, dice Pablo, en tanto Ana advierte que ese sistema de clasificación deviene en que haya cuerpos permitidos y cuerpos que no. Porque cuando ella ve imágenes de mujeres tratadas como objeto, sin finalidad artística, las denuncia y, muchas veces, recibe como respuesta que probablemente esa foto no inclumple las normas comunitarias, reglamento que define cada red sin consultar a quienes la utilizan.
Los mecanismos para controlar el cumplimiento de las normas en redes son varios. “Por un lado está la tecnología, porque para detectar spam o violencia se utilizan algoritmos programados para encontrar patrones asociados a alguna característica. Algo escrito con ira puede contener símbolos como ´!!!´ o estar escrito en mayúscula, por ejemplo. Pero los parámetros reales y cómo funciona, en realidad, es algo que saben las empresas y nadie más. Por otro lado, para lo que no se puede resolver mediante algoritmos, hay personas”, cuenta Pablo.
El algoritmo, entrenado, no tiene la capacidad de distinguir entre realidad y ficción. “Matate, amor” es el título de una de las novelas de Ariana Harwicz y fue, también, la frase que hizo que Twitter le bloqueara la cuenta a la escritora argentina durante tres horas. Según el mensaje que recibió de parte de la red, con su posteo cometía una infracción por promover el suicidio o conductas autodestructivas. “El problema es que sin contexto es difícil para la inteligencia artificial, lo es incluso para nosotres. Un tweet que diga: ´Publiqué un libro, se llama Matate, amor´, sería más fácil. Porque para saber que lo que dijo Ariana es ficción, la inteligencia artificial debería conocer que la usuaria es escritora y ella debería tener algún tipo de permiso. Pero, ¿qué pasaría si empieza a publicar contenido fascista, por ejemplo?”, reflexiona Pablo.
“Me enviaron una lista de centros para evitar que me suicide”, publicó Ariana, una vez de vuelta en la red social. Otro usuario le respondió que él quiso preguntar en una librería por la novela, también vía Twitter, y no pudo. En cambio, recibió un mensaje avisando que infringía las normas y que su cuenta quedaba limitada por 12 horas. “Sólo puedes enviar Mensajes Directos a tus seguidores. No podrás twittear, retwittear, seguir cuentas ni usar la función Me Gusta”. En otras palabras, durante un tiempo impuesto la comunicación de la persona quedó restringida a la gente allegada. Una cárcel digital.

Mecanismos de control
Es el filósofo surcoreano Byung-Chul Han quien habla de las redes sociales como una adaptación digital del panóptico. Él, en “La sociedad de la transparencia” establece diferencias y similitudes. Las lógicas de control están, pero en el mundo digital la vigilancia no se da desde un único centro por una mirada omnipotente, sino que proviene de todas partes. Por otro lado, encuentra que en el antiguo panóptico cada persona es consciente de quién vigila (la policía, por ejemplo). Sin embargo, en las redes hay una falsa sensación de libertad. “La peculiaridad del panóptico digital está en que quienes lo habitan colaboran de manera activa en su construcción y en su conservación en cuanto se exhiben ellos mismos(…)”, dice Han y, a la vez, exhibe que cualquiera puede ejercer control utilizando las redes. Por ejemplo, es posible saber si una persona está o no en línea o ver la hora en que leyó un mensaje. Pablo agrega: “Si bien la vigilancia viene de todas partes (navegadores, celulares, redes, cámaras de seguridad o GPS), lo cierto es que los dueños de la tecnología son pocos y quien domina los algoritmos y la tecnología, domina la vigilancia”.
La lógica muta, pero se sostiene y resulta similar a la que Harwicz describió en una nota publicada el 6 de enero en Clarín. Ahí explica que también existen controles literarios por parte de muchas editoriales, sobre todo las que tienen libros que pueden generar controversia. Lo que hacen es utilizar abogados para que lean los textos antes de ser publicados y, en general, existe una especie de decálogo que marca qué poner y qué no. Entonces, quien quiera ganar un premio, estar en las listas de mejores libros del año, tener buena reputación, prestigio, ediciones, traducciones o buenas críticas, dice Harwicz, tratan de seguir la línea (ideológica y de estilo) de las editoriales para lograr publicar. “Para que no les cancelen el libro, lo autocancelan. Esa es otra forma de censura”, reflexiona la escritora.
Eliminar, cancelar, cerrar cuentas; amenazar con “chupar”, dar vueltas en un patrullero o no publicar una obra literaria son herramientas de control que, diferenciadas por la gravedad del daño físico, buscan llamar la atención a quien infrinja las reglas impuestas.
Pero la mayoría de las obras artísticas tienen, en su origen, la necesidad de exteriorizar problemáticas, visibilizar historias, voces y cuerpos o hacer desde la imaginación. Para el resto, está la vida real. Entonces, la tensión se sostiene. La lógica de control afecta en la producción en tanto la persona que hace es consciente de que, para dar a conocer su obra, tiene que ser parte de un sistema en el que las editoriales con mayor poder económico ponen las reglas o la policía actúa sobre los cuerpos o, como dice Pablo, existen algoritmos que no son abiertos y resultan poco democráticos. Un sistema vertical sin posibilidad de participación que es, entonces, uno de los mayores problemas para el arte independiente. Así como lo es, también, el arte independiente para un sistema vertical.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.