El algoritmo de Amazon al que no le gustan las mujeres

0
19
Want create site? With Free visual composer you can do it easy.
hombre, mujer y robotDerechos de autor de la imagen Getty Images
Image caption No es la primera vez que la inteligencia artificial resulta sexista.

Amazon logró con Alexa convertirse en el rey de los asistentes personales y de la automatización. Tal vez por eso no resulte extraño que la firma quisiera poner la contratación de sus empleados en manos de la inteligencia artificial.

Pero esta aventura no salió como esperaba.

En 2014 la compañía de comercio electrónico puso en marcha un sistema algorítmicocon el que esperaba optimizar recursos y ahorrar tiempo y mano de obra, además de encontrar un sistema neutral para contratar personal.

Pero Amazon tuvo que despedir a su nuevo reclutador porque el algoritmo resultó sersexista, de acuerdo con una investigación elaborada por Reuters*.

El sistema recibió información sobre solicitantes de empleo en Amazon durante un periodo de 10 años, y fue entrenado para observar patrones.

Y la mayoría de ellos eran hombres, lo cual pudo resultar en el sesgo que afectó a su toma de decisiones.

Cinco miembros del equipo que trabajaron en el desarrollo de esta herramienta le contaron a Reuters que el algoritmo “se enseñó a sí mismo que los candidatos masculinos eran una preferencia”.

Derechos de autor de la imagen Getty Images
Image caption El algoritmo aprendió por su cuenta que ser hombre era favorable para trabajar en Amazon.

Según el informe de Reuters, esta tecnología funcionaba revisando solicitudes de empleo y dándoles a los candidatos un puntaje de una a cinco estrellas.

“Querían crear una máquina que recibiera 100 currículos y seleccionara los cinco mejores, para después nosotros contratarlos”, explicó uno de los ingenieros, que prefirió no revelar su identidad.

Amazon todavía no ha respondido a las acusaciones.

Mujeres “penalizadas”

En 2015, quedó claro que el sistema tenía un sesgo machista a la hora de seleccionar a los solicitantes, sobre todo a quienes aspiraban a puestos técnicos típicamente asignados a hombres, como desarrollador de software.

Entonces, comenzó a penalizar a los currículos que incluían la palabra “mujer”.

Derechos de autor de la imagen Getty Images
Image caption Las mujeres eran descartadas principalmente para puestos técnicos.

El programa fue revisado para intentar erradicar el sesgo, pero Amazon ya no podía seguir confiando en él.

Finalmente, el proyecto fue abandonado, aunque Amazon nunca llegó a sacar a la luz información sobre este proyecto fallido.

Pero, de acuerdo con el informe de Reuters, el algoritmo fue usado durante algún tiempo por los reclutadores de personal de la compañía, quienes tenían en cuenta sus recomendaciones para sus decisiones (aunque no se regían únicamente por ellas).

60/40

Amazon dice que su fuerza laboral global cumple la proporción de 60/40, a favor de los hombres. Ese ratio es el mínimo que marca la Ley de Igualdad en muchos países.

Y la compañía fue nombrada en el último análisis de la red social para contactos profesionales LinkedIn “la mejor empresa del mundo para trabajar” por su retención de talento, solicitudes del empleo y el grado de interés que despierta.

Derechos de autor de la imagen Getty Images
Image caption Según LikedIn, Amazon es la mejor empresa del mundo para trabajar.

Cerca del 55% de los directores de recursos humanos en Estados Unidos dicen que la inteligencia artificial jugará un papel crucial en la contratación de personal en los próximos cinco años, de acuerdo con una entrevista elaborada por la firma de software CareerBuilder.

Algoritmos discriminadores

Esta no es la primera vez que hay dudas sobre cuán confiables son los algoritmos y cómo los datos que analizan pueden resultar en decisiones sesgadas.

En junio, un experimento del MIT, el Instituto Tecnológico de Massachusetts, EE.UU., reveló que es posible entrenar a un algoritmo para convertirlo en psicópata y que interprete la realidad de cierta manera.

Derechos de autor de la imagen MIT
Image caption El MIT creó un algoritmo psicópata.

Y en mayo del año pasado un informe sugirió que alguno programas computacionales generados por inteligencia artificial usados por un tribunal en Estados Unidos discriminaban a las personas de raza negra.

En algunos algoritmos de vigilancia predictiva también se observó el mismo sesgo: como los datos mostraban que los negros eran arrestados más veces, el sistema tomó esa pauta como norma.

*Puedes leer la investigación original de Reuters (en inglés) aquí. (La BBC no se hace responsable del contenido de páginas externas).

Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

Did you find apk for android? You can find new Free Android Games and apps.