Foto: 123RF |
Tener más datos no es un sustituto de tener datos de alta calidad. Por ejemplo, aunque uno puede encontrar innumerables opiniones políticas en las redes sociales, estas no representan de manera fiable a los votantes. De hecho, una parte sustancial de los tuits y mensajes de Facebook sobre política son generados por computadoras.
Los programas automatizados basados en conjuntos de datos han causado numerosos escándalos. Hace poco, un estudiante buscó imágenes de Google sobre “peinados de aspecto no profesional para ir a trabajar”. Los resultados mostraron, en su mayoría, imágenes de personas de raza negra. Cuando el estudiante quitó el ‘no’ antes de ‘profesional’, Google arrojó principalmente imágenes de personas blancas. Esto no fue resultado de un sesgo de los programadores de Google, sino un reflejo del modo en que la gente etiqueta imágenes en internet.
Pues bien, un programa de ‘big data’ que usara este resultado de búsqueda para evaluar las decisiones de contratación y ascensos podría penalizar a los candidatos negros. Y esto no es solo una posibilidad hipotética. Una investigación de ProPublica sobre modelos de riesgo de reincidencia delincuencial demostró que una metodología de amplio uso para determinar las sentencias para los convictos sobrestima sistemáticamente la probabilidad de que los acusados de raza negra cometan delitos en el futuro y subestima la de los blancos.
Otro peligro del ‘big data’ es que se lo puede engañar. Cuando la gente sabe qué conjunto de datos se utiliza para tomar decisiones importantes, puede inclinar la balanza a su favor. Por ejemplo, si a los profesores se los juzga según los resultados de sus estudiantes, pueden ser más propensos a “enseñar para el examen”.
Ni siquiera el motor de búsqueda de Google es inmune. No obstante estar alimentado por una inmensa cantidad de datos y supervisado por varios de los principales científicos de datos del mundo, sus resultados son susceptibles de manipulación por medio de técnicas como el Google ‘bombing’ o el ‘spamdexing’, entre otros métodos.
Un tercer peligro es la violación de la privacidad. En los últimos años se han robado grandes conjuntos de datos confidenciales de sitios empresariales y gubernamentales, y los investigadores han demostrado cómo las opiniones políticas o, incluso, las preferencias sexuales de las personas se pueden recoger con precisión en publicaciones en línea aparentemente inocuas, como las opiniones sobre películas, incluso si se publican bajo seudónimo.
Por último, el big data plantea un reto para la rendición de cuentas. Si alguien siente que ha sido tratado injustamente por la decisión de un algoritmo, a menudo no tiene forma de apelar, ya sea porque los resultados no se pueden interpelar o porque las personas que los han creado se niegan a proporcionar detalles sobre cómo funcionan. Hace poco, la Unión Europea adoptó una medida que garantiza a las personas afectadas por los algoritmos el ‘derecho a una explicación’, pero solo el tiempo dirá cómo funcionará en la práctica.
Y los alcances de esto pueden ser muy tóxicos, como explica Cathy O’Neil en su libro ‘Weapons of Math Destruction’ (‘Armas de destrucción matemática’), en el cual analiza el poder de los algoritmos en nuestra vida cotidiana y cómo muchos de ellos fomentan la desigualdad y la discriminación.
La buena noticia es que los peligros del ‘big data’ se pueden evitar. Pero no será así a menos que protejamos celosamente la privacidad de las personas, detectemos y corrijamos las injusticias, utilicemos prudentemente las recomendaciones algorítmicas y mantengamos una comprensión rigurosa del funcionamiento interno de los algoritmos y los datos, objetivos y visiones que alimentan sus decisiones.
Fuentes: Cubadebate/El Tiempo
No hay comentarios.:
Publicar un comentario