Caminamos hacia un mundo físico cada vez más digitalizado con una red de objetos interconectados que arrojan una valiosa información. ¿Y en el centro de esta trama? Tú. Sí, el dueño de esa huella digital que dejas cuando tu pulsera cuantificadora almacena tus pulsaciones, miras imágenes en redes sociales e interactúas con ellas o incluso cuando utilizas el abono de transporte. Por eso el tratamiento de big data es clave para sacar partido a esta enorme cantidad de datos.

A día de hoy se podría decir que hemos dejado de ser dueños de nuestros secretos, incluso de aquellos ilícitos y ocultos. El IoT que tanto nos facilita la vida también nos ha arrebatado el anonimato y se ha convertido en uno de los principales aliados del big data. Pero, tal cantidad de datos deben de ser traducidos a un idioma que sirva de vehículo para usarlos en la causa concreta para la que se necesiten. Aquí se plantea el dilema: una persona por sí sola se vería abrumada, por decirlo suavemente, ante toda la información a tratar. La solución ha sido la aparición de tecnología adecuada, automatizada y eficiente para este cometido. Sin embargo, planteó una nueva duda, ¿es capaz la inteligencia artificial de dar sentido a los datos? ¿Tendrá en cuenta el componente ético?

Emociones frente a algoritmos

El tratamiento de big data permite trazar un perfil y acercar al propietario de los datos una oferta o servicio adecuado a su persona. Desde luego hay un sinfín de oportunidades y ventajas, pero en publicidad y marketing los intereses comerciales suelen despertar desconfianza (más aún con crisis tan recientes como la de Facebook y Cambridge Analytica). El tratamiento de datos en manos de un humano puede verse condicionado por emociones e intereses propios, por lo que esta opción plantea sus fisuras. Que lo haga un algoritmo puede ser en principio más justo, sin embargo, carece de empatía a la hora de diferenciar entre casos aparentemente iguales.

El panorama más favorable pasaría por lograr un tratamiento que aúne inteligencia artificial con un componente humano que aplique emociones atribuibles a los humanos como la ética o la empatía. Porque algunos datos por sí solos no arrojan conclusiones, pero que junto a otros pueden desvelar los detalles más íntimos de una persona. A ojos de un algoritmo estas situaciones pueden pasar desapercibidas y si no, que se lo digan a la familia de Minneapolis, en Estados Unidos, que descubrió que su hija menor de edad estaba embarazada por el envío de unos cupones para productos de maternidad de las tiendas Target. La compañía usaba un algoritmo que puntuaba a las usuarias según sus hábitos de consumo para descubrir si estaban embarazadas. Más tarde les enviaba ofertas para posicionarse como referente en sus compras de productos de puericultura.

No sólo pueden existir problemas al no discriminar ciertas situaciones, sino que puede suceder todo lo contrario y el algoritmo ejercer una discriminación negativa. La matemática Cathy O’Neil en su libro Armas de Destrucción Matemática expone cómo los algoritmos en que se basan actualmente muchas decisiones generan desigualdad. Algunos resultan desde un principio sesgados y en muchas ocasiones son generalizados, secretos, inexplicables e injustos. Acaban puntuando a las personas sin estas ser conscientes de determinados resultados que podrían desembocar, por ejemplo, en si irás o no la universidad porque el algoritmo determinó que podrías pagarla y acceder a ella.

Ahora es difícil decir que no te asustes después de la reflexión anterior, pero sería ilógico tenerle miedo al big data. Su correcta aplicación nos hace eficientes y facilita muchos aspectos de la vida. El que dijo aquello de que “la información es poder” estaba en lo cierto, siempre y cuando el poder se utilice en beneficio de todos.