Crédito:CC0 Public Domain
Los científicos dicen que han desarrollado un marco para hacer que los algoritmos informáticos sean "más seguros" de usar sin crear sesgos basados en la raza. género u otros factores. El truco, ellos dicen, es hacer posible que los usuarios le digan al algoritmo qué tipo de trampas evitar, sin tener que saber mucho sobre estadísticas o inteligencia artificial.
Con esta salvaguarda en su lugar, hospitales, Las empresas y otros usuarios potenciales que desconfíen de utilizar el aprendizaje automático podrían encontrarlo como una herramienta más aceptable para ayudarlos a resolver problemas. según un informe de la edición de esta semana de la revista Ciencias .
Los algoritmos informáticos se utilizan para tomar decisiones en una variedad de entornos, desde los tribunales hasta las escuelas y los sitios de compras en línea. Los programas clasifican grandes cantidades de datos en busca de patrones útiles que puedan aplicarse a decisiones futuras.
Pero los investigadores han estado luchando con un problema que se vuelve cada vez más difícil de ignorar:aunque los programas están automatizados, a menudo proporcionan resultados sesgados.
Por ejemplo, un algoritmo utilizado para determinar las sentencias de prisión predijo tasas de reincidencia más altas para los acusados negros declarados culpables de delitos y un menor riesgo para los blancos. Esas predicciones resultaron ser incorrectas, según un análisis de ProPublica.
Sesgos como este a menudo se originan en el mundo real. Un algoritmo utilizado para determinar qué pacientes eran elegibles para un programa de coordinación de la atención médica estaba inscribiendo pacientes negros en gran parte porque el código se basaba en datos de gasto en salud del mundo real, y los pacientes negros gastaban menos dólares en ellos que los blancos.
Incluso si la información en sí no está sesgada, los algoritmos aún pueden producir resultados injustos u otros "indeseables, "dijo Philip Thomas, investigador de inteligencia artificial en la Universidad de Massachusetts Amherst y autor principal del nuevo estudio.
Clasificar qué procesos podrían estar impulsando esos resultados injustos, y luego arreglarlos, puede ser una tarea abrumadora para los médicos, hospitales u otros usuarios potenciales que solo quieren una herramienta que les ayude a tomar mejores decisiones.
"Son los expertos en su campo, pero quizás no en el aprendizaje automático, por lo que no deberíamos esperar que tengan un conocimiento detallado de cómo funcionan los algoritmos para controlar el comportamiento de los algoritmos". ", Dijo Thomas." Queremos darles una interfaz simple para definir el comportamiento indeseable para su aplicación y luego asegurarnos de que el algoritmo evitará ese comportamiento con alta probabilidad ".
Entonces, los científicos informáticos desarrollaron un tipo diferente de algoritmo que permitía a los usuarios definir más fácilmente qué mal comportamiento querían que evitara su programa.
Esta, por supuesto, dificulta el trabajo de los diseñadores de algoritmos, Thomas dijo, porque tienen que construir su algoritmo sin saber qué sesgos u otros comportamientos problemáticos el usuario eventual no querrá en el programa.
"En lugar de, tienen que hacer que el algoritmo sea lo suficientemente inteligente como para comprender que lo que el usuario está diciendo es un comportamiento indeseable, y luego razonar por sí solo sobre la causa de este comportamiento, y luego evitarlo con alta probabilidad, ", dijo." Eso hace que el algoritmo sea un poco más complicado, pero mucho más fácil de usar para las personas de manera responsable ".
Para probar su nuevo marco, los investigadores lo probaron en un conjunto de datos de puntajes de exámenes de ingreso para 43, 303 estudiantes brasileños y los promedios de calificaciones que obtuvieron durante sus primeros tres semestres en la universidad.
Los algoritmos estándar que intentaban predecir el GPA de un estudiante en función de los puntajes de su examen de ingreso estaban sesgados en contra de las mujeres:las calificaciones que predijeron para las mujeres eran más bajas de lo que realmente eran, y las calificaciones que predijeron para los hombres fueron más altas. Esto provocó una brecha de error entre hombres y mujeres que promedió 0.3 puntos de GPA, suficiente para marcar una gran diferencia en las perspectivas de admisión de un estudiante.
El nuevo algoritmo, por otra parte, redujo ese rango de error a 0.05 puntos de GPA, lo que lo convierte en un indicador mucho más justo del éxito de los estudiantes.
Los científicos informáticos también probaron su marco con datos simulados para pacientes con diabetes. Descubrieron que podía ajustar las dosis de insulina de un paciente de forma más eficaz que un algoritmo estándar. resultando en muchos menos episodios no deseados de hipoglucemia.
Pero otros cuestionaron el nuevo enfoque.
Dr. Leo Anthony Celi, intensivista en Beth Israel Deaconess Medical Center y científica investigadora en MIT, argumentó que la mejor manera de evitar sesgos y otros problemas es mantener informados a los expertos en aprendizaje automático durante todo el proceso en lugar de limitar sus aportaciones a las etapas iniciales de diseño. De esa manera, pueden ver si un algoritmo se está comportando mal y hacer las correcciones necesarias.
"Simplemente no hay forma de evitar eso, "dijo Celi, que ayudó a desarrollar un programa de inteligencia artificial para mejorar las estrategias de tratamiento para pacientes con sepsis.
Igualmente, usuarios de primera línea, como médicos, las enfermeras y los farmacéuticos deberían tener un papel más activo en el desarrollo de los algoritmos en los que se basan, él dijo.
Los autores del nuevo estudio se apresuraron a señalar que su marco era más importante que los algoritmos que generaban al usarlo.
"No estamos diciendo que estos sean los mejores algoritmos, "dijo Emma Brunskill, científico informático de la Universidad de Stanford y autor principal del artículo. "Esperamos que otros investigadores en sus propios laboratorios continúen creando mejores algoritmos".
Brunskill agregó que le gustaría ver que el nuevo marco aliente a las personas a aplicar algoritmos a una gama más amplia de problemas sociales y de salud.
El nuevo trabajo seguramente suscitará debate, y quizás más conversaciones necesarias entre las comunidades de atención médica y aprendizaje automático. Dijo Celi.
"Si hace que la gente tenga más discusiones, creo que es valioso, " él dijo.
© 2019 Los Angeles Times
Distribuido por Tribune Content Agency, LLC.