Si una imagen pinta mil palabras, el reconocimiento facial pinta dos:está sesgado.
Quizás recuerdes hace unos años que Google Fotos etiquetaba automáticamente imágenes de personas negras como "gorilas, "o Flickr (propiedad de Yahoo en ese momento) haciendo lo mismo y etiquetando a las personas como" simios "o" animales ".
A principios de este año, los New York Times informó sobre un estudio de Joy Buolamwini, investigador del MIT Media Lab, sobre inteligencia artificial, algoritmos y sesgos:descubrió que el reconocimiento facial es más preciso para los hombres blancos, y menos precisa para las personas de piel más oscura, especialmente mujeres.
Ahora, dado que la policía está considerando el uso del reconocimiento facial o lo está usando, aeropuertos, funcionarios de inmigración y otros — Microsoft dice que ha mejorado su tecnología de reconocimiento facial hasta el punto en que ha reducido las tasas de error para hombres y mujeres de piel más oscura hasta en 20 veces. Para mujeres solas la compañía dice que ha reducido las tasas de error nueve veces.
Microsoft realizó mejoras al recopilar más datos y expandir y revisar los conjuntos de datos que usó para entrenar su IA.
De una publicación reciente del blog de la empresa:"Las tasas de error más altas en mujeres con piel más oscura resaltan un desafío en toda la industria:las tecnologías de inteligencia artificial son tan buenas como los datos utilizados para entrenarlas. Si un sistema de reconocimiento facial debe funcionar bien en todas las personas, el conjunto de datos de entrenamiento debe representar una diversidad de tonos de piel, así como factores como el peinado, joyas y gafas ".
En otras palabras, la empresa que nos trajo a Tay, el chatbot loco por el sexo y amante de los nazis, quiere que sepamos que lo está intentando, es realmente difícil. (También puede recordar que Microsoft desconectó su experimento de inteligencia artificial Tay en 2016 después de que rápidamente comenzara a arrojar cosas locas y racistas en Twitter. reflejando las cosas que aprendió en línea. La compañía culpó a un "ataque coordinado de un subconjunto de personas" por la corrupción de Tay).
En noticias relacionadas, IBM anunció que lanzará el conjunto de datos faciales más grande del mundo para tecnólogos e investigadores, para ayudar a estudiar el sesgo. En realidad, lanzará dos conjuntos de datos este otoño:uno que tiene más de 1 millón de imágenes, y otro que tiene 36, 000 imágenes faciales distribuidas equitativamente por etnia, género y edad.
Big Blue también dijo que mejoró su servicio Watson Visual Recognition para análisis facial. disminuyendo su tasa de error en casi diez veces, a principios de este año.
"La IA tiene un poder significativo para mejorar la forma en que vivimos y trabajamos, pero solo si los sistemas de IA se desarrollan y entrenan de manera responsable, y producir resultados en los que confiamos, ", Dijo IBM en una publicación de blog." Asegurarse de que el sistema esté capacitado en datos equilibrados, y deshacerse de los prejuicios, es fundamental para lograr esa confianza ".
© 2018 The Mercury News (San José, Calif.)
Distribuido por Tribune Content Agency, LLC.