7 junio, 2023

Big data y desaparecidos: algo habrán hecho

El concepto de big data, tan moderno como actual, es llevado a nuestro pasado para explicar el método que utilizaron las dictaduras militares para imponerse en los años 70. Por Camilo Semería.





Hace poco escribía sobre la manipulación del lenguaje, la matemática y los hechos para forzar definiciones políticas, sobre como los simbólico se cuestiona como si fuera literal escondiendo avales a premisas postuladas por agentes oscuros de nuestro pasado más duro. Hoy me interesa abordar un tema relacionado, que es el «big data» y como ese concepto popularizado de forma reciente responde al famoso y nefasto «algo habrán hecho».

Para eso, ante todo es necesario definir «big data», literalmente «datos grandes». Nos referimos así a caudales de datos tan grandes que resisten ser analizados detalladamente, por lo que se procede a catalogarlos mediante procesos automáticos para obtener estadísticas y marcadores que nos permitan alcanzar conclusiones. Por ejemplo, imaginemos todas las búsquedas del mundo que se hacen en un día en Google, un dato que si bien no es público se estima en un número entre 5 mil y 6 mil millones. Aún con un millón de empleados analizándolas, tendrían que revisar como mínimo 5 mil por persona, lo que llevaría una jornada completa evaluando una búsqueda cada unos 4 segundos. Una locura. Mucho mejor usar filtros automáticos que verifiquen la frecuencia y combinación de uso de términos y los asocien a los resultados sobre los que se clickeó para obtener afinidades búsqueda-resultados. Pero, ya que Google conoce vida, obra y milagro de todos y todas luego puede cruzar esa información con perfiles personales y determinar según geografía, edad, sexo, historial de búsquedas, etc, etc, que preferimos ver. Como ejemplo, mientras un libertario angloparlante se ufanaba de la obviedad del término «ancap» (que les comento por si acaso que es apócope de “anarcocapitalista”), al ser «primer resultado en Google», yo le decía que quizás del suyo, el mío me manda a un ente uruguayo: «Administración Nacional de Combustibles Alcohol y Pórtland». Quien quiera que haga su propia búsqueda y vea que le sale.

Pero…¿qué tiene que ver la big data con la dictadura? A priori nada. Pero ya veremos que no es tan así.
Volvamos a la definición: demasiado grande para ser analizado en detalle por lo tanto tabulamos. ¿Y qué es una investigación judicial sino investigar y analizar un caso en detalle? Las dictaduras (tanto la argentina como las demás de la región) eligieron obviar ese proceso por dos motivos fundamentales: no tener reglas como freno (muy a lo Jack Bauer en «24») y… poder usar una versión primitiva de big data.
O sea, no vamos a analizar quien «puso la bomba», vamos a construir perfiles de «usuario» (personas) que nos resultan compatibles con ese accionar y los limpiamos. Ya que estamos ampliamos los perfiles e incorporamos a cualquiera que obstruya nuestro accionar y como llegado a este punto que más da, agregamos los perfiles ideológicos que puedan significar daño a nuestros objetivos políticos. ¿Listo? No. Vamos a tener que tener también un perfil de notoriedad, un alerta que nos pida doble checkeo cuando el blanco es conocido y puede tener impacto internacional. ¿Por qué? Porque lo último que queremos es llevarnos al embajador norteamericano por «error» o a algún empresario amigo o a algún político que nos conviene vivo para mantener una ilusión de normalidad.

Fíjense que reitero «error», no lo hago a la ligera. El Big Data siempre viene asociado a un margen de error, como todo criterio estadístico. Como regla universal, cuanto más estricto el criterio menos «falsos positivos» y cuando más amplio menos «falsos negativos». En términos más crudos, si hilás fino te llevás a menos gente por “error” pero corrés riesgo de que se te escape alguien que querías agarrar, cuanto más amplio el criterio más «errores» pero menos de las personas buscadas se te escapan.
Así fue como se seleccionó a las víctimas del proceso. Se recababa información, se secuestraba, se torturaba para conseguir más información, se secuestraba, eventualmente se liberaba a algunas personas, se asesinaba a otras y otras simplemente «se quedaban» en el «interrogatorio». Big Data aplicado a gente que había hecho algo para encajar en los filtros de búsqueda, algo que casi jamás implicaba el ejemplo favorito de los apologistas: «poner una bomba» o matar a alguien. Pero la cosa se complica porque todo sistema de información depende de la calidad de la información que se le inyecta y, para sorpresa de nadie, alguien bajo tortura muchas veces confiesa hasta lo que no hizo. Eso, por supuesto, aumenta el margen de error.

Llegado a un punto, todo el «algoritmo» (porque lo era) terminó enfocado en aniquilar la resistencia civil al régimen ya sea por acción directa (eliminación) o a través del miedo. Así, igual que se hace hoy desde las grandes compañías de Internet, el objetivo fue moldear una sociedad; objetivo que en gran parte se logró, imponiendo la cultura del «no te metás» y coronando la «gestión» con la destrucción de pruebas que permitieran marcar precisión sobre los números de lo ocurrido, dejando una vez más un problema que se asemeja al big data: demasiados para contarlos de a uno, demasiados para siquiera poder saber cuando se registró finalmente el último caso ocurrido. Por eso se aplican soluciones estadísticas, por eso las aproximaciones, por eso, como decía en un artículo reciente, ese simbólico 30.000 que no dice nada y dice mucho. Porque habla de desapariciones pero también de torturas, asesinatos, violaciones y vejámenes varios aún sin incluir amenazas o persecuciones. Pero ante todo nos dice algo, que es lo que realmente importa y quienes lo cuestionan parecen no entenderlo: habla de un problema demasiado grande para poder ser analizado con precisión, habla de que el Proceso es un problema de big data. Cuando se intenta contarlos, dar un número preciso, el problema no es el número sino que muy flojamente de papeles se intenta refutar esta característica, se intenta plantear el problema como analizable y resoluble, bajando su magnitud. Otras estimaciones que no pretenden eso pecan quizás de terminar siendo banderas políticas para minimizar lo sucedido, sobre todo cuando van acompañada de estimaciones de los muertos por la guerrilla, un absurdo dado que esos casos si fueron judicializados, investigados y sus registros preservados, por lo que el big data no aplica.

Y así, estimados y estimadas, concluyo esta exposición sobre cómo entender el «big data» recordando oscuras épocas setentistas. Espero les haya resultado didáctico y, sobre todo, les haya disparado alguna que otra reflexión sobre el mundo en que vivimos en el pasado tanto como en el que vivimos hoy en día.