• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo los algoritmos informáticos ayudan a difundir los prejuicios raciales en la atención médica de EE. UU. y cómo pueden ayudar a solucionarlo

    Crédito:CC0 Public Domain

    La gente puede estar sesgada incluso sin darme cuenta, pero los programas de computadora no deberían tener ninguna razón para discriminar a los pacientes negros al predecir sus necesidades de atención médica. ¿Derecha?

    Incorrecto, sugiere una nueva investigación.

    Los científicos que estudian un algoritmo ampliamente utilizado, típico del tipo que usan las aseguradoras de salud para tomar decisiones de atención cruciales para millones de personas, han descubierto evidencia significativa de prejuicio racial cuando se trata de predecir los riesgos para la salud de los pacientes negros.

    Los resultados, descrito el jueves en la revista Ciencias , tienen implicaciones de gran alcance para la salud y el bienestar de los estadounidenses a medida que dependemos cada vez más de las computadoras para convertir los datos sin procesar en información útil. Los resultados también apuntan a la raíz del problema, y ​​no es el programa de computadora.

    "No deberíamos culpar al algoritmo, "dijo el líder del estudio, el Dr. Ziad Obermeyer, investigador de aprendizaje automático y salud en la Universidad de California, Berkeley. "Deberíamos culparnos a nosotros mismos, porque el algoritmo está aprendiendo de los datos que le proporcionamos ".

    Un algoritmo es un conjunto de instrucciones que describen cómo realizar una determinada tarea. Una receta de brownies es un algoritmo. También lo es la lista de giros que debe realizar para conducir a la fiesta de su amigo.

    Un algoritmo informático no es diferente, excepto que está escrito en código en lugar de palabras. Hoy dia, se utilizan para orientar anuncios en línea, reconocer rostros y encontrar patrones en conjuntos de datos a gran escala; con suerte, convertir el mundo en un mundo más eficiente, lugar comprensible.

    Pero si bien los algoritmos se han vuelto más poderosos y omnipresentes, Se ha acumulado evidencia de que reflejan e incluso amplifican los prejuicios y el racismo del mundo real.

    Se descubrió que un algoritmo utilizado para determinar las penas de prisión tenía prejuicios raciales, prediciendo incorrectamente un mayor riesgo de reincidencia para los acusados ​​negros y un riesgo menor para los acusados ​​blancos. Se ha demostrado que el software de reconocimiento facial tiene sesgos tanto de raza como de género, identificar con precisión el género de una persona solo entre los hombres blancos. Se ha descubierto que los anuncios en línea que aparecen con los resultados de búsqueda de Google muestran trabajos de altos ingresos a hombres con mucha más frecuencia que a mujeres.

    Obermeyer dijo que fue casi por accidente que él y sus colegas tropezaron con el sesgo incrustado en el algoritmo de atención médica que estaban estudiando.

    El algoritmo se utiliza para identificar a los pacientes con problemas de salud que probablemente darán lugar a complicaciones más graves y mayores costos en el futuro. Un gran hospital académico lo había comprado para ayudar a identificar a los pacientes candidatos a un programa de coordinación de la atención. que brinda acceso a servicios tales como citas médicas aceleradas y un equipo de enfermeras que pueden hacer visitas a domicilio o reabastecer recetas.

    "Es como un programa VIP para personas que realmente necesitan ayuda adicional con su salud, "Dijo Obermeyer.

    El objetivo es cuidar a estos pacientes antes de que su condición empeore. Eso no solo los mantiene más saludables a largo plazo, mantiene bajos los costos para el sistema de salud.

    Este tipo de algoritmos a menudo son propietarios, "lo que dificulta que los investigadores independientes los analicen, "escribieron los autores del estudio. Pero en este caso, el sistema de salud lo proporcionó voluntariamente, junto con datos que permitirían a los investigadores ver si el algoritmo predecía con precisión las necesidades de los pacientes.

    Los investigadores notaron algo extraño:los pacientes negros a los que se les había asignado la misma puntuación de alto riesgo que los pacientes blancos tenían muchas más probabilidades de ver cómo su salud se deterioraba durante el año siguiente.

    "A un nivel de riesgo determinado según el algoritmo, los pacientes negros terminaron enfermando mucho más que los pacientes blancos, "Dijo Obermeyer.

    Esto no tiene sentido él dijo, por lo que los científicos se centraron en la discrepancia. Analizaron los datos de salud de 6, 079 pacientes negros y 43, 539 pacientes blancos y se dio cuenta de que el algoritmo estaba haciendo exactamente lo que se le había pedido que hiciera.

    El problema era que las personas que lo diseñaron le habían pedido que hiciera algo incorrecto.

    El sistema evaluó a los pacientes en función de los costos de salud en los que incurrieron, asumiendo que si sus costos fueran altos, era porque sus necesidades eran altas. Pero la suposición de que los altos costos eran un indicador de una gran necesidad resultó ser incorrecta, Obermeyer dijo:debido a que los pacientes negros suelen recibir menos servicios de atención médica que los pacientes blancos, incluso cuando están igualmente mal.

    Eso significaba que el algoritmo estaba alejando incorrectamente a algunos pacientes negros del programa de coordinación de la atención.

    Remediando que la disparidad racial podría hacer que el porcentaje de pacientes negros inscritos en el programa de atención especializada aumente del 17,7% al 46,5%, los científicos se dieron cuenta.

    Habiendo identificado el problema, una suposición humana errónea, los científicos se dispusieron a solucionarlo. Desarrollaron un modelo alternativo que se centró en "costos evitables, "como visitas de emergencia y hospitalizaciones. Otro modelo centrado en la salud, medido por el número de brotes de enfermedades crónicas durante el año.

    Los investigadores compartieron su descubrimiento con el fabricante del algoritmo, que luego analizó su conjunto de datos nacional de casi 3.7 millones de pacientes asegurados comercialmente, confirmando los resultados. Juntos, experimentaron con un modelo que combinaba la predicción de la salud con la predicción de costos, en última instancia, reduciendo el sesgo en un 84%.

    Dra. Karen Joynt Maddox, cardiólogo e investigador de políticas de salud en la Universidad Washington de St. Louis, elogió el trabajo como "una forma reflexiva de considerar este problema emergente realmente importante".

    "Estamos confiando cada vez más en estos algoritmos y estos modelos de predicción de caja negra para decirnos qué hacer, como comportarse, cómo tratar a los pacientes, cómo orientar las intervenciones, "dijo Joynt Maddox, que no participó en el estudio. "Es inquietante, en cierto sentido, para pensar si estos modelos que damos por sentado y estamos usando están sistemáticamente en desventaja para grupos particulares ".

    La falla en este caso no fue con el algoritmo en sí, pero con las suposiciones hechas al diseñarlo, se apresuró a agregar.

    Obermeyer dijo que optaron por no señalar a la empresa que fabricó el algoritmo ni al sistema de salud que lo utilizó. Dijo que esperaban enfatizar el papel de todo un grupo de algoritmos de predicción de riesgos que, por estimaciones de la industria, se utilizan para evaluar aproximadamente 200 millones de personas al año.

    Algunas personas han reaccionado a los descubrimientos de sesgo algorítmico sugiriendo que los algoritmos se eliminen por completo, pero los algoritmos no son el problema, dijo Sendhil Mullainathan, científico computacional del comportamiento de la Universidad de Chicago y autor principal del estudio.

    De hecho, cuando está debidamente estudiado y abordado, pueden ser parte de la solución.

    "Reflejan los sesgos en los datos que son nuestros sesgos, ", Dijo Mullainathan." Ahora, si puedes descubrir cómo solucionarlo ... el potencial que tiene para desviarnos del sesgo es realmente fuerte ".

    Un mejor algoritmo puede ayudar a diagnosticar y tratar los efectos de las disparidades raciales en la atención. pero no puede "curar" la disparidad en la raíz del problema:el hecho de que se gastan menos dólares en la atención de pacientes negros, de media, que en los pacientes blancos, reconoció.

    Es probable que estas disparidades de costos surjan por varias razones, dijeron los autores del estudio. La raza y la discriminación pueden influir e incluso cuando tienen seguro, los pacientes más pobres enfrentan "barreras sustanciales para acceder a la atención médica".

    "En la medida en que la raza y el nivel socioeconómico estén correlacionados, estos factores afectarán de manera diferencial a los pacientes negros, "escribieron los investigadores.

    Arreglar esas fuentes de disparidad del mundo real presenta un desafío más profundo y mucho más complicado.

    Por último, Obermeyer dijo:"Es mucho más fácil corregir el sesgo en los algoritmos que en los humanos".

    © 2019 Los Angeles Times
    Distribuido por Tribune Content Agency, LLC.




    © Ciencia https://es.scienceaq.com