Armas de destrucción matemática

0 Shares
0
0
0

Vea las matemáticas desde una perspectiva completamente nueva.

 

Tal vez hayas oído hablar de Big Data y de cómo los algoritmos que usan esa información proporcionan nuevas ideas sobre los patrones de consumo, la política y las plataformas de redes sociales. De hecho, los algoritmos están en todas partes. Guían nuestros feeds de redes sociales y tamizan los anuncios que vemos. Y también influyen en la vida humana de muchas otras maneras; a menudo, ahora dictan a qué trabajos y escuelas tenemos acceso.

 

Se podría pensar que las decisiones, sobre contratación, sobre admisiones, serían mucho más justas si se basaran en cálculos objetivos en lugar de en el instinto de alguien. Después de todo, los algoritmos juzgan a todos en la misma escala, ¿verdad? Bueno, como aprenderá en este resumen, la situación es un poco más compleja que eso.

 

También lo descubrirás

 

  • por qué manipular los feeds de Facebook puede mejorar la participación electoral;
  •  

  • cómo un algoritmo utilizado para clasificar las universidades de EE. UU. Aumentó la matrícula en un 500 por ciento; y
  •  

  • por qué los conductores de Florida con un historial de manejo impecable pagan primas más altas que los conductores ebrios.
  •  

Los algoritmos tienen el potencial de influir en el público votante y perturbar la democracia.

 

En muchos sentidos, internet ayuda a la democracia. Es una plataforma pública que admite voces independientes. Pero esa misma plataforma también está abierta a poderosas máquinas de propaganda que pueden manipular la conversación.

 

La investigación ha demostrado que las redes sociales y los motores de búsqueda son especialmente vulnerables a los algoritmos que pueden influir en las decisiones de los usuarios desprevenidos.

 

Los investigadores Robert Epstein y Ronald Robertson encontraron pruebas de esto después de pedirles a los votantes indecisos en los Estados Unidos y la India que encontraran información sobre un puñado de diferentes candidatos políticos.

 

El problema fue que se les dijo a los votantes que usaran un motor de búsqueda específico, sin saber que había sido programado con un algoritmo que favorecía a un candidato sobre todos los demás. Como resultado, los participantes mostraron un cambio del 20 por ciento hacia votar por la opción preferida del algoritmo.

 

Un estudio similar ocurrió en Facebook justo antes de las elecciones de 2012: Solomon Messing, del Pew Research Center, diseñó un algoritmo especial que generaría las noticias de dos millones de usuarios y favorecería las noticias políticas sobre todas las demás publicaciones.

 

Facebook encuestó a los participantes antes y después de las elecciones, y los resultados mostraron que un 3 por ciento más de usuarios acudieron a votar de lo esperado antes de que el algoritmo se ajustara para favorecer la política.

 

Si bien no podemos saber con certeza si ciertos motores de búsqueda o algoritmos de redes sociales están diseñados para influir en los usuarios, está claro que existe un gran potencial de abuso.

 

También está claro que los candidatos políticos son muy conscientes de su poder para obtener votos.

 

Antes de las elecciones de 2012, Obama tuvo un equipo de analistas de datos que entrevistó a miles de votantes y utilizó sus respuestas, además de datos demográficos y de consumidores, para crear perfiles matemáticos.

 

Estos perfiles se utilizaron para encontrar personas similares en bases de datos nacionales. Según los perfiles, podrían suponer que las personas con intereses y antecedentes similares también compartirían las mismas opiniones políticas. Una vez que las personas con datos similares se agruparon, los analistas pudieron crear algoritmos que se aseguraron de que estos grupos recibieran anuncios específicos que fueran atractivos para sus gustos.

 

Entonces, aquellos que mostraron evidencia de tener preocupaciones ambientales, por ejemplo, fueron blanco de anuncios que destacaban las políticas ambientales de Obama.

 

Los algoritmos diseñados para predecir el crimen también refuerzan los prejuicios.

 

Predecir crímenes futuros suena como algo sacado de una historia de ciencia ficción de Philip K. Dick, pero de hecho es parte de la realidad de hoy. Los departamentos de policía están utilizando algoritmos para apuntar a posibles delincuentes.

 

Pero este software está lejos de ser perfecto, y los algoritmos han llevado a que las ciudades sean controladas de manera desigual y que ciertas personas sean injustamente identificadas.

 

¿Cómo ha sucedido esto?

 

Los algoritmos se basan en datos históricos para determinar dónde es más probable que ocurran crímenes, y es la policía quien determina qué datos se introducen en el algoritmo.

 

Parte del problema es que la policía tiende a centrarse en tipos específicos de delitos, como los “delitos molestos”, que incluyen la vagancia y ciertos delitos relacionados con las drogas.

 

Dado que estos delitos tienden a ocurrir en vecindarios pobres, el análisis terminará siendo completamente sesgado hacia estas partes de la ciudad. Como resultado, la policía envía la mayoría de sus unidades de patrulla a las calles de los barrios pobres, haciendo que los residentes se sientan injustamente atacados. Esto también lleva a la negligencia de los barrios más ricos, que se vuelven más vulnerables a la actividad criminal.

 

Sesgos similares incorporados distorsionan los datos que la policía usa para predecir posibles delitos violentos, lo que lleva a que personas inocentes sean etiquetadas como peligrosas.

 

En 2009, el Departamento de Policía de Chicago recibió una subvención para desarrollar un nuevo software de predicción de delitos. Usaron ese dinero para desarrollar un algoritmo que creó una lista de las 400 personas con mayor probabilidad de estar involucradas en un homicidio.

 

Una de esas personas era Robert McDaniel, un joven de 22 años que se convirtió en el foco de atención de la policía. Un día, en 2013, un oficial de policía incluso visitó la casa de McDaniel para hacerle saber que la policía tenía sus ojos en él.

 

Pero McDaniel nunca fue acusado de ningún delito. Terminó siendo marcado por el algoritmo basado únicamente en las personas que sigue en las redes sociales y los delincuentes que viven en su vecindario.

 

En resumen, crecer en un vecindario pobre es todo lo que se necesita para etiquetarte como potencialmente peligroso.

 

Para ser justos, los algoritmos de predicción de delitos están diseñados para proteger a las personas, pero pueden empeorar fácilmente la vida de las personas de lo que eran antes.

 

Como veremos en el próximo capítulo, un problema similar está plagando el negocio de los seguros.

 

Las compañías de seguros están explotando a las personas con mal crédito.

 

Si está familiarizado con las agencias de seguros, es posible que sepa que le pedirán a diferentes clientes que paguen diferentes primas. Y no, no solo hacen esto al azar. Utilizan los datos específicos que han recopilado sobre sus clientes.

 

Para el seguro de automóviles, los algoritmos se utilizan para calcular los montos de pago en función de cuántos accidentes anteriores ha tenido un cliente, así como sus informes de crédito anteriores.

 

De hecho, en algunas áreas, esos informes de crédito tienen más peso que el historial de manejo de un cliente.

 

Tal es el caso en Florida, donde los adultos con registros de manejo limpios e informes crediticios deficientes terminan pagando un promedio de $ 1,552 más por año que los conductores con excelente crédito y antecedentes de conducir ebrio.

 

Esto conduce a que los conductores pobres con habilidades de conducción impecables tengan que pagar más por el seguro que los conductores ricos.

 

Y así comienza el círculo vicioso: al verse obligados a pagar más por el seguro, es más probable que las familias con problemas de liquidez pierdan el pago de otra factura y empeoren aún más su puntaje de crédito. Y luego, cuando expire su seguro actual, la tasa en su próximo contrato aumentará aún más, incluso si no han violado una sola regla de tráfico.

 

Algunas compañías de seguros incluso están utilizando algoritmos para calcular la probabilidad de que un cliente compare precios más baratos.

 

La compañía de seguros Allstate hace esto utilizando un modelo que emplea datos demográficos y de consumo. Si el algoritmo sugiere que es probable que un cliente busque precios más bajos, le ofrecerá un precio reducido, a veces hasta un 90 por ciento de descuento sobre la tarifa promedio.

 

Sin embargo, si no es probable que un cliente compare, su tasa puede aumentar hasta en un 800 por ciento.

 

Pero lo que realmente está haciendo el algoritmo de Allstate es aprovecharse de las personas pobres sin educación formal, ya que este es el grupo demográfico que es menos probable que busque otras opciones.

 

El mercado laboral también está siendo influenciado injustamente por algoritmos.

 

Puede ser difícil detectar a los mejores trabajadores de un grupo de cientos de solicitantes. Por lo tanto, tiene sentido utilizar una variedad de pruebas, en combinación con la ayuda de compañías de datos, para clasificar los resultados.

 

Pero estas pruebas han demostrado ser restrictivas para ciertos tipos de personas, especialmente cuando se trata de pruebas de personalidad, lo que ha hecho casi imposible que alguien como Kyle Behm consiga un trabajo.

 

Behm tuvo que abandonar sus clases en la Universidad de Vanderbilt para recibir tratamiento para su trastorno bipolar. Pero en 2012, estaba lo suficientemente saludable como para comenzar a buscar un trabajo a tiempo parcial.

 

Entonces solicitó a Kroger, una cadena de supermercados, después de que un amigo le dijo a Behm que había una posición abierta. Cuando lo rechazaron, verificó con su amigo, quien le dijo que había sido “iluminado en rojo” debido a los resultados de su prueba de personalidad: el algoritmo había etiquetado a Behm como “probable que tenga un rendimiento inferior”.

 

Desafortunadamente, lo mismo le sucedió a Behm en todos los otros trabajos de salario mínimo que solicitó. Entonces, con la ayuda de su padre, presentó una demanda contra siete compañías diferentes bajo la Ley de Estadounidenses con Discapacidades. A partir de 2016, la demanda aún estaba pendiente.

 

Parte del problema es que las empresas que manejan los datos pueden cometer algunos errores preocupantes.

 

Cuando Catherine Taylor solicitó un trabajo con la Cruz Roja en Arkansas, fue rechazada y le dijeron que se debía a su cargo penal por la intención de fabricar y vender metanfetamina. Esto le pareció extraño a Catherine ya que ella tenía un historial bastante limpio.

 

Cuando investigó más, descubrió que esos cargos pertenecían a otra Catherine Taylor que tenía el mismo cumpleaños.

 

También descubrió que fue la compañía que proporcionó los datos a la Cruz Roja la que cometió el error, lo que la llevó a investigar un poco más. Al final, Catherine descubrió que al menos diez corredores de datos habían cometido el mismo error, vinculándola a un delito grave que nunca había cometido.

 

Las clasificaciones universitarias tienen efectos negativos en la educación superior.

 

No es ningún secreto que las universidades en los Estados Unidos se han vuelto bastante caras en los últimos 30 años, pero pocas personas saben que una de las principales razones del aumento de la matrícula se debe a un periódico.

 

En la década de 1980, US News and World Report comenzó a utilizar un algoritmo que clasificaba la calidad de las universidades de EE. UU. Utilizando datos que creían que determinarían su éxito, como los puntajes SAT y las tasas de aceptación.

 

De repente, este ranking se volvió crucialmente importante para todas las universidades involucradas, y todas se propusieron mejorar su desempeño en las áreas que utilizaba el algoritmo US News . Pero para hacer eso, necesitaban recursos.

 

Esta lucha por el dinero es en gran parte responsable de la matrícula que se va por las nubes. Entre 1985 y 2013, el costo de la educación superior aumentó en un 500 por ciento.

 

Estas clasificaciones no fueron el único factor que contribuyó a este aumento, pero ciertamente alentaron a las escuelas a aumentar sus costos.

 

Una de las cosas más perjudiciales US News hizo fue incluir las tasas de aceptación en su fórmula, ya que arruinó por completo el concepto de una “escuela de seguridad”.

 

Tradicionalmente, una escuela de seguridad era una universidad que tenía una alta tasa de aceptación, y serviría como un buen plan de respaldo para un estudiante que también estaba aplicando a una escuela más prestigiosa como Harvard o Yale.

 

Pero desde US News dio a las escuelas con una tasa de aceptación más baja una mejor posición en el ranking, muchas escuelas comenzaron a bajar sus tasas y enviar menos cartas de aceptación.

 

Para mantener sus números de matrícula reales iguales, tuvieron que elegir a qué estudiantes iban a rechazar. Al observar sus números, las escuelas de seguridad pudieron ver que solo un pequeño porcentaje de los mejores estudiantes los elegirían entre las prestigiosas escuelas, por lo que creyeron que rechazarlos no haría ningún daño.

 

Pero incluso si solo algunos de estos estudiantes de alto rendimiento decidieran asistir, habría beneficiado a la escuela. Además, la decisión de rechazar de antemano a los de alto rendimiento arruinó los planes de respaldo de muchos buenos estudiantes.

 

Como todos los otros algoritmos que analizamos, lo que comenzó como una buena idea terminó haciendo mucho más daño que bien.

 

Resumen final

 

El mensaje clave en este libro:

 

Los algoritmos fueron creados inicialmente para ser neutrales y justos al evitar sesgos demasiado humanos y lógica defectuosa. Sin embargo, muchos de los algoritmos utilizados hoy, desde el mercado de seguros hasta el sistema de justicia, han incorporado los prejuicios e ideas erróneas de sus diseñadores. Y dado que estos algoritmos operan en una escala masiva, estos sesgos conducen a millones de decisiones injustas.

 

Consejo práctico:

 

Escribir currículums aptos para máquinas.

 

La mayoría de las empresas actuales utilizan lectores automáticos de currículums. Para aumentar sus posibilidades de obtener el trabajo, modifique su currículum con el lector automático en mente. Aquí hay algunos consejos simples que siempre puede aplicar:

 

  • Usa fuentes simples como Arial y Courier
  •  

  • Manténgase alejado de las imágenes, que el lector no puede procesar
  •  

  • No utilices símbolos, incluso los simples como las flechas pueden confundir al lector
  •  

¿Tienes comentarios?

 

¡Nos encantaría saber lo que piensas sobre nuestro contenido! ¡Simplemente envíe un correo electrónico a hola@epicurea.org con el título de este libro como asunto y comparta sus pensamientos!

 

Sugerido más lectura: Big Data por Viktor Mayer-Schönberger y Kennethnekger y Kenne

 

Big Data proporciona una visión perspicaz de por qué un cambio a “big data” es un cambio importante en la forma en que recopilamos, usamos y pensamos sobre los datos que nos rodean. Proporciona excelentes explicaciones y ejemplos de cómo las personas y empresas que ya están por delante de la curva están utilizando las herramientas de Big Data para crear valor y ganancias. Mirando hacia adelante, el libro también describe las implicaciones futuras para una sociedad de big data en términos de riesgos, oportunidades e implicaciones legales.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

También te pueden interesar

Top Secret America

Este libro muestra cómo el estado de seguridad estadounidense expandió sus poderes después del 11 de septiembre al establecer Top Secret America, un grupo de agencias que operan en gran medida en secreto. Aunque Top Secret America se fundó para proteger a los estadounidenses, en su lugar ha creado nuevos peligros. Top Secret America ha sido un desperdicio de recursos y una amenaza para la libertad, y debe cerrarse lo antes posible.

Los caminos de seda

The Silk Roads (2015) es una historia completa del mundo, escrita con un ojo en las redes de comercio que le dieron forma. Las redes de comercio establecidas por primera vez en la antigua Persia y luego vinculadas con las rutas comerciales chinas crearon una gran red entre Oriente y Occidente. Pero estos caminos de seda no son reliquias del pasado. Se han transformado y cambiado, y su impacto se puede sentir hoy, hasta el fatídico compromiso de Estados Unidos en la región donde todo comenzó.

Investigación del usuario

User Research (2018) es una guía práctica para empresarios, investigadores y gerentes interesados ​​en responder la pregunta más importante en los negocios: ¿a los clientes realmente les gusta su producto? Basándose en los años de experiencia de la autora Stephanie Marsh en la investigación de usuarios, este resumen presenta los métodos más utilizados, describiendo claramente las ventajas y desventajas de cada uno.

Los lugares más inteligentes de la tierra

The Smartest Places on Earth (2016) cuenta la historia de antiguas regiones industriales de gran potencia en todo el mundo que cayeron en decadencia pero que desde entonces han resurgido como centros de colaboraciones innovadoras. Este resumen describe cómo los países de Occidente están utilizando este modelo para desafiar el modelo de producción en masa barato orientado a la mano de obra que ha cobrado importancia en otros lugares.

El Manifiesto de Motivación

El Manifiesto de la Motivación (2014) explica las fuerzas impulsoras fundamentales de la naturaleza humana y cómo nos ayudan a realizar o nos alejan de los objetivos de nuestra vida. En unos sencillos pasos, aprenderá a inspirar y aumentar sus propios niveles de motivación para vivir una vida más feliz.

La conversación ordenada

La conversación ordenada (2014) es una guía para diseñar, preparar y entregar una presentación asesina. Este resumen explica por qué hacer un discurso es diferente de presentar en un contexto comercial, y por qué las presentaciones fuertes son como una buena conversación.