Crédito:CC0 Public Domain
La inteligencia artificial y el aprendizaje automático (AI / ML) están transformando cada vez más el sector de la salud. Desde detectar tumores malignos hasta leer tomografías computarizadas y mamografías, La tecnología basada en IA / ML es más rápida y precisa que los dispositivos tradicionales, o incluso los mejores médicos. Pero junto con los beneficios vienen nuevos riesgos y desafíos regulatorios.
En su último artículo, "Algoritmos sobre bloqueo regulatorio en medicina" publicado recientemente en Ciencias , Boris Babic, Profesor Asistente de INSEAD de Ciencias de la Decisión; Theodoros Evgeniou, Catedrático INSEAD de Ciencias de la Decisión y Gestión Tecnológica; Sara Gerke, Investigador del Centro Petrie-Flom de Políticas de Derecho de la Salud de la Facultad de Derecho de Harvard, Biotecnología, y bioética; y yo Glenn Cohen, Profesora de la Facultad de Derecho de Harvard y directora de la facultad del Centro Petrie-Flom, observe los nuevos desafíos que enfrentan los reguladores mientras navegan por caminos desconocidos de AI / ML.
Consideran las preguntas:¿Qué nuevos riesgos enfrentamos a medida que se desarrollan e implementan los dispositivos de IA / ML? ¿Cómo deben manejarse? ¿En qué factores deben centrarse los reguladores para garantizar el máximo valor con un riesgo mínimo?
Hasta ahora, los organismos reguladores como la Administración de Drogas y Alimentos de los EE. UU. (FDA) han aprobado software médico basado en IA / ML con "algoritmos bloqueados, " es decir, algoritmos que proporcionan el mismo resultado cada vez y no cambian con el uso. Sin embargo, Una fortaleza clave y un beneficio potencial de la mayoría de la tecnología AI / ML se deriva de su capacidad para evolucionar a medida que el modelo aprende en respuesta a nuevos datos. Estos "algoritmos adaptativos, "posible gracias a AI / ML, crear lo que es, en esencia, un sistema sanitario de aprendizaje, en el que los límites entre la investigación y la práctica son porosos.
Dado el valor significativo de este sistema adaptativo, Una pregunta fundamental para los reguladores hoy en día es si la autorización debe limitarse a la versión de la tecnología que se presentó y se evaluó como segura y eficaz. o si permiten la comercialización de un algoritmo donde se encuentra un mayor valor en la capacidad de la tecnología para aprender y adaptarse a nuevas condiciones.
Los autores analizan en profundidad los riesgos asociados con este problema de actualización, teniendo en cuenta las áreas específicas que requieren atención y las formas en que se podrían abordar los desafíos.
La clave para una regulación sólida, ellos dicen, es priorizar el monitoreo continuo de riesgos.
"Para gestionar los riesgos, Los reguladores deberían centrarse especialmente en el seguimiento continuo y la evaluación de riesgos. y menos en la planificación de futuros cambios en el algoritmo, "dicen los autores.
A medida que los reguladores avanzan, los autores recomiendan que desarrollen nuevos procesos para monitorear continuamente, identificar, y gestionar los riesgos asociados. Sugieren elementos clave que podrían ayudar con esto, y que pueden, en el futuro, automatizarse mediante AI / ML, posiblemente con sistemas de AI / ML que se monitoreen entre sí.
Si bien el documento se basa en gran medida en la experiencia de la FDA en la regulación de la tecnología biomédica, las lecciones y los ejemplos tienen amplia relevancia ya que otros países consideran cómo dan forma a su arquitectura regulatoria asociada. También son importantes y relevantes para cualquier empresa que desarrolle productos y servicios integrados de AI / ML, de automoción, al seguro, finanzas, energía, y cada vez más muchos otros. Los ejecutivos de todas las organizaciones tienen mucho que aprender sobre la gestión de nuevos riesgos de IA / ML a partir de la forma en que los reguladores piensan sobre ellos en la actualidad.
"Nuestro objetivo es enfatizar los riesgos que pueden surgir de cambios imprevistos en la forma en que los sistemas médicos de AI / ML reaccionan o se adaptan a sus entornos, "dicen los autores, advirtiendo que, "Sutil, a menudo, las actualizaciones paramétricas no reconocidas o los nuevos tipos de datos pueden provocar errores grandes y costosos ".