Actualidad

La nueva minería (de datos)

El Big data es núcleo temático de cuatro libros recientes analizados en este artículo por el escritor Javier Moreno.

El Big data está de moda. Buena prueba de ello es la considerable cantidad de artículos que se publican en prensa a propósito del tema, pero también las apuestas editoriales que buscan poner de relieve las luces y las sombras de esta nueva tecnología capaz tanto de resolver problemas como de crearlos. En concreto analizaremos aquí cuatro libros aparecidos en el último año relacionados con esta temática como son Big data: La revolución de los datos masivos, de Viktor Mayer-Scönberger y Kenneth Cukier (Turner), La locura del solucionismo tecnológico, de Evgeny Morozov (Katz), Armas de destrucción matemática, de Cathy O’Neil (Capitán Swing) y La humanidad aumentada, de Éric Sadin (Caja Negra Editora).

Por si alguien no lo sabe todavía, el Big data es el conjunto de herramientas diseñadas para tratar con cantidades masivas de datos y destinadas a extraer correlaciones entre ellos con el fin de predecir y evaluar comportamientos y optimizar recursos (humanos y/o materiales). Las utilidades del Big data son tan variadas como la imaginación de los analistas de datos (y las necesidades de las corporaciones o las administraciones públicas) puedan dar de sí. Los ejemplos, extraídos de las obras anteriormente citadas, son innumerables. Webs de evaluación de restaurantes por parte de los clientes, plataformas capaces de predecir el comportamiento criminal de una ciudad, test que elaboran rankings de universidades y del profesorado de escuela secundaria, la socorrida herramienta ‘completar búsqueda’ de Google, campañas de publicidad -o políticas- segmentadas, destinadas a un grupo específico de  población, o programas que dictan los horarios de los empleados de una multinacional de comida rápida. El listado, como se ve,  resulta casi inagotable.

Dr. Jekyll & Mister Hyde

Un aspecto común de estos cuatro libros es que sus autores afrontan el tema de la minería de datos desde una óptica (con leves matices en su rigorismo) fundamentalmente crítica. Anticipando una conclusión general (compartida unánimemente por los autores) podríamos decir que las herramientas que trabajan con datos pueden ser de gran ayuda pero que ofrecen como contrapartida un aspecto negativo, casi siniestro, de consecuencias incontrolables si no se toman medidas reguladoras. El punto crucial es el análisis de los algoritmos, un aspecto en el que se detienen sobre todo las obras de Cathy O’Neil (ella misma trabajó como analista de datos para varias empresas) y de Evgeny Morozov. Los algoritmos que están en la base del tratamiento de datos resultan casi siempre opacos. Pensemos, por ejemplo, en el algoritmo Pagerank de Google, o el algoritmo de Twitter que eleva un tuit a la categoría de trending topic. La complejidad de dichos algoritmos los convierte en una especie de cajas negras que se abastecen de datos y que proveen datos pero cuya pista entre el input y el output resulta prácticamente imposible de rastrear. Quizás esa opacidad no resulte demasiado relevante cuando se usa para recomendar la compra de un producto (una camiseta, un libro) a partir de un prontuario de compras previas, pero sí lo es si el output conlleva el que una persona sea despedida de su puesto de trabajo o resulte sospechosa de la futura comisión de un crimen. A propósito de esto último, resulta casi un leit motiv (tres de los cuatro autores reseñados hablan de ello con mayor o menor extensión) el uso por parte de la policía de PredPol, un servicio de Big Data que se propone no solo anticipar en qué zonas es más probable que se cometa un delito sino incluso señalar con antelación a los delincuentes propensos a cometerlo. Como apuntan Cathy O’Neil en Armas de destrucción matemática y Mayer-Schönberger y Cukier en Big Data: la revolución de los datos masivos, no estamos lejos de la ficción ideada por Phillip K. Dick -y llevada al cine por Steven Spielberg– en El informe de la minoría. Recordemos que en el cuento de K. Dick una sección formada por tres humanos (dos hombres y una mujer) constituyen la base del precrimen. Sus dictámenes permiten saber con antelación quién será la víctima y el criminal y, por tanto, detener al victimario antes de que este cometa el delito. Como ocurre en la ficción, nos embarga la duda de hasta qué punto es legítimo castigar (o amonestar, como es el caso de Predpol) a un presunto criminal, antes incluso de que haya tenido lugar el crimen. Como señala O’Neil, Predpol no es una herramienta objetiva, ajena al prejuicio social que impera sobre la criminalidad. La autora denuncia que Prepol discrimina casi siempre a delincuentes que viven en barrios depauperizados. La persecución de esta delincuencia desfavorecida socialmente, muchas veces por delitos menores, hace que ingresen en prisión y que por tanto ponderen en Predpol -una vez quedan en libertad- como candidatos a delinquir de nuevo, produciéndose un círculo vicioso que deja fuera de foco otros tipos de delincuencia como la financiera o la corrupción política. O’Neil propone una piedra de toque para identificar cuándo una herramienta de Big Data se convierte en un arma de destrucción masiva (ADM). Vendría esta determinada por tres características: ser un bucle de retroalimentación pernicioso, la opacidad de sus algoritmos y el daño producido a los más desfavorecidos. O’Neil tiene la virtud de sistematizar a través de esas tres ideas maestras la crítica a lo que ella denomina ADM, insistiendo sobre todo en el tercer elemento, es decir, en cómo la tecnología aplicada  a los datos acaba casi siempre perjudicando a las clases más bajas, que deben someterse al lecho de Procusto de sus dictámenes. Como nos dice la autora:  “Los privilegiados son analizados por personas; las masas, por máquinas”.

Make it simple, geek

La crítica de Evgeny Morozov (y en parte la de Éric Sadin) no va encaminada tanto a los efectos del Big Data (que también) sino a la mitología que la sustenta. Morozov habla del solucionismo (la idea de que todo problema debe de tener una solución si sabemos programar los algoritmos adecuados) como el mito -y el pecado- capital del análisis de datos. Una mitología que habría sido promovida por los ingenuos geeks norteamericanos para extenderse como la pólvora a la par que el desarrollo tecnológico de los últimos años. El libro de Morozov se dedica a desmontar las múltiples variantes de ese mito mostrando cómo esas supuestas soluciones no dejan de acarrear nuevos problemas, a veces más acuciantes que el original. Coincide Morozov con el resto de autores en denunciar la supuesta condición adánica (desvinculada del pasado) y acrítica de los algoritmos, como si estos constituyesen entes de una objetividad indubitable, ajenos a la ideología y a los prejuicios de sus diseñadores.  Sadin señala cómo la delegación de la toma de decisiones en los algoritmos coloca a la humanidad ante un punto de no retorno, una condición que él denomina antrobológica (de anthropos=hombre y bólos=red). Bajo este presupuesto antihumanista, que Sadin propone como una tesis a medias distópica, a medias apotropaica, el hombre acabará convertido en una especie de cyborg, un híbrido entre hombre y máquina que habrá cedido parte de su libertad a dispositivos capaces de trabajar con cantidades ingentes de datos y muy superiores en capacidad de cálculo y correlación a las del ser humano. El análisis de Sadin se encuadraría dentro de la estrategia aceleracionista, es decir, aquella que no rechaza las posibilidades que ofrece la técnica sino que más bien busca en su promoción un punto de no retorno virtuoso que suponga la aparición de una capacidad humana liberadora. Ofrece Sadin una disyuntiva en la tesitura en la que nos encontramos. Una primera posibilidad, distópica, en la que los seres humanos se vean desbordados por la sobredosis de información y se rindan ante la imposibilidad de competir con la máquina en velocidad de computación. La segunda posibilidad, más esperanzadora, implica que la libertad humana se hibride con la potencia de las nuevas herramientas, haciendo uso de ellas en su beneficio para lograr un avance del conocimiento. A la primera -la peor- de las opciones se adscribe sin dudarlo Morozov, quien se ocupa de desarrollar minuciosamente esta posibilidad en el último capítulo de su libro titulado, muy expresivamente: Dispositivos inteligentes, humanos estúpidos.

Divide y… venderás (más)

Como ya adelantamos, la crítica fundamental de Morozov a la ideología que él llama solucionismo proviene de la acusación de bisoñez contra aquellos que pretenden encontrar soluciones sencillas a problemas complejos. De los autores aquí reseñados, es sin duda O’Neil la que se ocupa con mayor determinación de apuntar los peligros de la segmentación, de la atención grupal y a veces individualizada de los contenidos publicitarios o políticos, previo diseño de perfiles usando estrategias de rastreo por internet. Así un mensaje político (no solo la publicidad) puede ser específico de acuerdo con los intereses del posible votante; e incluso los contenidos periodísticos pueden ajustarse a los gustos del lector en función de las lecturas previas y, todavía más sorprendente, ser escritos no por humanos sino por algoritmos que elaboran la información ad hoc, a gusto del consumidor. Si nos atenemos a las redes sociales esta segmentación produce lo que se conoce con el nombre de filtro burbuja. Los algoritmos acaban priorizando los contenidos de aquellos que piensan como nosotros. Así, como denuncia Morozov, las redes sociales crean en el usuario una falsa idea de globalización, cuando en realidad lo que hacemos es recrear en ellas una versión virtual de nuestro Belchite particular. Para pinchar estas burbujas hay quien propone imitar la componente de azar que implica la vida real (si todavía sabemos lo que es eso) incorporando la serendipia a los propios algoritmos. Un simulacro de choque con la alteridad. Algo así como que en el convite de una boda te sienten a una mesa donde no conoces a nadie.

La necesidad de poner límites

Si estos libros se hubiesen publicado un poco más tarde sin duda habrían incluido el caso -tan de actualidad- del uso inapropiado de perfiles de Facebook por parte de la consultora Cambridge Analytica y que habrían influido en campañas electorales tan importantes como la británica del Bréxit y la norteamericana de las elecciones presidenciales. El propio Zuckerberg se ha visto obligado a comparecer ante el Senado de Estados Unidos para reconocer que (a diferencia de lo que pensaba anteriormente) las redes sociales no se regulan solas (una versión digital del dictado capitalista de la autorregulación de los mercados) sino que habrá que tomar medidas para poner un poco de orden.

Ante el peligro evidente que supone dejar sin control estas herramientas basadas en el Big data los autores parecen ponerse de acuerdo en la necesidad de poner límites a la aplicación de estas técnicas. Mencionamos a propósito dos citas, extraídas la primera de la obra de  Viktor Mayer-Schönberger y Kenneth Cukier, y la segunda de la de Éric Sadin:

“Debemos impedir la aparición de “señores de los datos” del siglo XXI, el equivalente moderno de los barones rapaces que dominaron los ferrocarriles, la siderurgia y las redes telegráficas de Estados Unidos en el siglo XIX”.

“Este código requeriría no autonomizarse, y estar basado en exigencias y principios establecidos a conciencia, dentro de un universo jurídico-político que debe confrontarse con la extrema complejidad abierta y sin equivalente histórico de las coyunturas presentes y futuras inducidas por el “desdoblamiento” repentino e incierto de nuestra humanidad por parte de “hordas artificiales” cada vez más liberadas de nuestra tutela”.

De manera muy concreta Mayer-Schönberger y Kenneth Cukier proponen la creación de un cuerpo de algoritmistas que sirviesen para detectar las fallas de una herramienta de Big data. Estos algoritmistas podrían actuar desde fuera de la corporación (de oficio, digamos, siguiendo instrucciones de un gobierno) o desde dentro, como un sistema de control y consultoría que la empresa demandara y a resultas del cual pudiera recibir un certificado de limpieza, digamos.

Bendita (humana) imperfección

Confrontados ante la tesitura que propone Éric Sadin: “Es un mundo sobreinformado de sí mismo (…) el fin de una antropología estructuralmente marcada por la incerteza, el vacío, el accidente”, entrevemos, finalmente, una alabanza general de las capacidades del ser humano que se resisten a la computación. No todo van a ser ceros y unos y algoritmos. Parece una perogrullada, pero a veces olvidamos eso que nos recuerdan los autores de Big Data: la revolución de los datos masivos:

“Lo más grande de los seres humanos es precisamente lo que no revelan los algoritmos y los chips de silicio, aquello que no pueden revelar porque no puede ser capturado en forma de datos. No “lo que es”, sino “lo que no es”, el espacio vacío, las grietas de la acera, lo que aún no se ha dicho ni se ha pensado”.

Estamos hablando, tal vez, de la poesía. De Lemmy Caution derrotando a la aparentemente infalible Alpha 60 en Alphaville.

Morozov nos llega a plantear un verdadero dilema moral a partir de la experiencia de Gordon Bell, el precursor del Lifelogging. Bell es el sujeto experimental de MyLifeBits, abanderado en la misión de registrar y acumular información acerca de todo lo que uno pueda leer, ver o experimentar en la vida. Frente a este modelo de exhaustividad memorística (por otra parte incompleto, ya que prescinde de las experiencias hápticas, gustativas y olfativas), Morozov propone la bonanza del olvido (donde esta palabra tendría connotaciones más amplias que el simple borrado de datos) y, sobre todo, del perdón. He aquí la radical pregunta que Morozov propone a sus lectores:

“¿Es posible que el engaño, al igual que el olvido, sean útiles para llevar -e incluso posibilitar- una vida más moral?”


 

Javier Moreno
(Murcia, 1972), escritor y poeta, es autor de novelas como Buscando Batería (Bartleby, 1999), La Hermogeníada (Aladeriva, 2006), Click (Candaya, 2008; Nuevo Talento FNAC), Alma (Lengua de Trapo, 2011) o 2020 (Lengua de Trapo, 2013), así como del libro de relatos Atractores extraños (InEditor, 2010). Ha sido galardonado con el Premio Nacional Fundación Cultural Miguel Hernández (Cortes publicitarios, Devenir, 2006) y con el Premio Internacional de Poesía Joven La Garúa (Acabado en diamante, La Garúa, 2009). Ha ejercido la crítica literaria en Deriva, Revista de letras o Quimera. Su último libro publicado es el volumen de relatos Un paseo por la desgracia ajena (Salto de Página, 2017)

 

 

2 comments on “La nueva minería (de datos)

  1. Guillermo Quintás

    Amigo Luis, hoy me he quedado sin paseo y eso no se puede repetir. Por tanto, hacia las 13 horas llegaré a la UIMP, tomamos una cervecita al sol y me retiro después de haber departido contigo. De esa forma, pasearé por el río de 9 a 11, ducha y autobús. Vale? Guillermo

  2. Pingback: Por qué el mundo necesita la inteligencia artificial – El Cuaderno

Deja un comentario

A %d blogueros les gusta esto: