Crédito:CC0 Public Domain
Los avances en inteligencia artificial han creado nuevas amenazas a la privacidad de los datos de salud. muestra un nuevo estudio de UC Berkeley.
El estudio, dirigido por el profesor Anil Aswani del Departamento de Investigación de Operaciones e Ingeniería Industrial (IEOR) en la Facultad de Ingeniería y su equipo, sugiere que las leyes y regulaciones actuales no son suficientes para mantener en privado el estado de salud de un individuo frente al desarrollo de la IA. La investigación se publicó hoy el Red JAMA abierta .
En el trabajo, que fue financiado en parte por el Centro de Ciberseguridad a Largo Plazo de UC Berkeley, Aswani muestra que al usar inteligencia artificial, es posible identificar a las personas aprendiendo patrones diarios en datos de pasos (como los recopilados por los rastreadores de actividad, relojes inteligentes y teléfonos inteligentes) y su correlación con los datos demográficos. La extracción de datos de dos años que cubren más de 15, 000 estadounidenses llevaron a la conclusión de que los estándares de privacidad asociados con la legislación HIPAA (Ley de Portabilidad y Responsabilidad del Seguro Médico) de 1996 deben revisarse y reelaborarse.
"Queríamos utilizar NHANES (la Encuesta Nacional de Examen de Salud y Nutrición) para analizar las preguntas sobre privacidad porque estos datos son representativos de la población diversa de EE. UU., "Dice Aswani." Los resultados señalan un problema importante. Si quita toda la información de identificación, no te protege tanto como piensas. Alguien más puede volver y armarlo todo si tiene el tipo de información correcto ".
"En principio, podría imaginarse que Facebook recopila datos de pasos de la aplicación en su teléfono inteligente, luego, comprando datos de atención médica de otra empresa y haciendo coincidir los dos, ", explica." Ahora tendrían datos de atención médica que coincidieran con los nombres, y podrían comenzar a vender publicidad basada en eso o podrían vender los datos a otros ".
Aswani deja en claro que el problema no está en los dispositivos, pero con cómo la información que capturan los dispositivos puede ser mal utilizada y potencialmente vendida en el mercado abierto.
"No digo que debamos abandonar estos dispositivos, ", dice." Pero debemos tener mucho cuidado con la forma en que usamos estos datos. Necesitamos proteger la información. Si podemos hacer eso, es un neto positivo ".
Aunque el estudio analizó específicamente los datos de pasos, Aswani dice que los resultados sugieren una amenaza más amplia para la privacidad de los datos de salud. "Las regulaciones de HIPAA hacen que su atención médica sea privada, pero no cubren tanto como crees, ", dice." Muchos grupos, como empresas de tecnología, no están cubiertos por HIPAA, y las reglas actuales de la HIPAA no permiten compartir información muy específica. Hay empresas que compran datos sanitarios. Se supone que son datos anónimos pero todo su modelo de negocio consiste en encontrar una forma de asignar nombres a estos datos y venderlos ".
Aswani dice que le preocupa que a medida que los avances en IA faciliten a las empresas el acceso a los datos de salud, aumentará la tentación de las empresas de utilizarlo de forma ilegal o poco ética. Empleadores prestamistas hipotecarios, las empresas de tarjetas de crédito y otros podrían utilizar la inteligencia artificial para discriminar en función del estado de embarazo o discapacidad, por ejemplo.
"Idealmente, lo que me gustaría ver de esto son nuevas regulaciones o reglas que protegen los datos de salud, ", dice." Pero en realidad hay un gran impulso para incluso debilitar las regulaciones en este momento. Por ejemplo, el grupo de elaboración de reglas para HIPAA ha solicitado comentarios sobre el aumento del intercambio de datos. El riesgo es que si la gente no se da cuenta de lo que está sucediendo, las reglas que tenemos se debilitarán. Y el hecho es que los riesgos de que perdamos el control de nuestra privacidad en lo que respecta al cuidado de la salud en realidad están aumentando y no disminuyendo ".