El algoritmo de recorte de fotos de Twitter favorece los rostros blancos y las mujeres

El otoño pasado, canadiense El estudiante Colin Madland notó que el algoritmo de recorte automático de Twitter seleccionaba continuamente su rostro, no el de su colega de piel más oscura, de las fotos de la pareja para mostrar en tweets. La episodio encendió acusaciones de parcialidad, ya que una oleada de usuarios de Twitter publicaron fotos alargadas para ver si la IA elegiría la cara de una persona blanca sobre una negra o si se enfocaría en el pecho de las mujeres sobre sus caras.

En ese momento, un portavoz de Twitter dijo que las evaluaciones del algoritmo antes de que se pusiera en funcionamiento en 2018 encontraron sin evidencia de prejuicios de raza o género. Ahora, el análisis más grande de la IA hasta la fecha ha encontré lo contrario: que el algoritmo de Twitter favorece a los blancos sobre los negros. Esa evaluación también encontró que la IA para predecir la parte más interesante de una foto no se enfoca en los cuerpos de las mujeres sobre los rostros de las mujeres.

Pruebas previas por Twitter e investigador Vinay Prabhu involucró unos cientos de imágenes o menos. El análisis publicado por científicos de investigación de Twitter el miércoles se basa en 10,000 pares de imágenes de personas de diferentes grupos demográficos para probar a quién favorece el algoritmo.

Los investigadores encontraron sesgo cuando al algoritmo se le mostraron fotos de personas de dos grupos demográficos. En última instancia, el algoritmo elige a una persona cuyo rostro aparecerá en las líneas de tiempo de Twitter, y algunos grupos están mejor representados en la plataforma que otros. Cuando los investigadores introdujeron en el sistema una imagen de un hombre negro y una mujer blanca, el algoritmo eligió mostrar a la mujer blanca el 64 por ciento del tiempo y al hombre negro solo el 36 por ciento del tiempo, la brecha más grande para cualquier grupo demográfico incluido en el analisis. Para las imágenes de una mujer blanca y un hombre blanco, el algoritmo mostró a la mujer el 62 por ciento del tiempo. Para las imágenes de una mujer blanca y una mujer negra, el algoritmo mostró a la mujer blanca el 57 por ciento del tiempo.

El 5 de mayo, Twitter eliminó el recorte de imágenes para fotos individuales publicadas con la aplicación de teléfono inteligente de Twitter, un enfoque que favoreció el director de diseño de Twitter, Dantley Davis. desde la controversia del algoritmo estalló el otoño pasado. El cambio llevó a la gente a publicar fotos altas y marcó el final de “Abierto para una sorpresa” tweets.

El llamado algoritmo de prominencia todavía se usa en Twitter.com, así como para recortar tweets de múltiples imágenes y crear miniaturas de imágenes. Un portavoz de Twitter dice que las fotos excesivamente altas o anchas ahora están recortadas en el centro, y la compañía planea terminar con el uso del algoritmo en el sitio web de Twitter. Los algoritmos de prominencia se entrenan mediante el seguimiento de lo que las personas miran cuando miran una imagen.

Otros sitios, incluidos Facebook e Instagram, han utilizado Recorte automatizado basado en IA. Facebook no respondió a una solicitud de comentarios.

Las acusaciones de sesgo de género y raza en los sistemas de visión por computadora son, desafortunadamente, bastante comunes. Google detalló recientemente los esfuerzos para mejorar el funcionamiento de las cámaras de Android para las personas con piel oscura. La semana pasada el grupo Reloj de algoritmo encontrado que la IA de etiquetado de imágenes utilizada en un iPhone etiquetó las representaciones de dibujos animados de personas con piel oscura como “animales”. Un portavoz de Apple se negó a comentar.

Independientemente de los resultados de las mediciones de equidad, los investigadores de Twitter dicen que la toma de decisiones algorítmica puede quitarle opciones a los usuarios y tener un impacto de gran alcance, particularmente para los grupos de personas marginados.

En el estudio recientemente publicado, los investigadores de Twitter dijeron que no encontraron evidencia de que el algoritmo de recorte de fotos favorezca los cuerpos de las mujeres sobre sus rostros. Para determinar esto, alimentaron el algoritmo con 100 imágenes elegidas al azar de personas identificadas como mujeres y encontraron que solo tres cuerpos centrados sobre caras. Los investigadores sugieren que esto se debe a la presencia de una insignia o números de camiseta en el pecho de las personas. Para realizar el estudio, los investigadores utilizaron fotos del conjunto de datos de WikiCeleb; Los rasgos de identidad de las personas en las fotos se tomaron de Wikidata.

Leave a Reply

Your email address will not be published. Required fields are marked *