• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los investigadores sugieren que los sistemas de inteligencia artificial médica podrían ser vulnerables a los ataques adversarios

    Crédito:CC0 Public Domain

    Un pequeño equipo de investigadores médicos de la Universidad de Harvard y el MIT ha publicado un artículo del Foro de políticas en la revista. Ciencias lo que sugiere que los futuros sistemas de inteligencia artificial médica podrían ser vulnerables a los ataques adversarios. Señalan que investigaciones anteriores han demostrado que prácticamente todos los sistemas de inteligencia artificial son vulnerables de alguna manera a tales ataques.

    Un ataque contradictorio en el campo del aprendizaje automático es un intento a través de una entrada malintencionada de engañar al modelo sobre el que se construye dicho sistema. En la práctica, esto significa alimentar a un sistema de IA con algún tipo de información que lo obligue a devolver resultados incorrectos. Los investigadores sugieren que un ataque de este tipo podría estar dirigido a sistemas de detección como los programados para detectar el cáncer mediante el análisis de escáneres. Incluso mostraron cómo funcionaría un ataque adverso al alimentar un sistema con un cierto patrón de ruido que desencadenaba confusión. resultando en resultados incorrectos.

    Pero este no es el tipo de ataque adverso que realmente preocupa a los investigadores. Lo que más les preocupa son los sistemas de inteligencia artificial que se han desarrollado y que ya están en uso y que están involucrados en el procesamiento de reclamaciones y facturación:la posibilidad de que los hospitales o incluso los médicos puedan usar dichos sistemas para alterar la información en los formularios para que las compañías de seguros o las compañías de seguros les paguen más. Medicaid para realizar pruebas, por ejemplo, cambiando un código para que una radiografía simple parezca una prueba de resonancia magnética. Alimentar a un sistema de inteligencia artificial con la información correcta en el momento adecuado podría hacer que haga precisamente eso. También existe la posibilidad de que un hospital pueda enseñar a su sistema de inteligencia artificial a encontrar las mejores formas de estafar a las compañías de seguros o al gobierno. haciéndolo casi imposible de detectar.

    Los investigadores sugieren que se requiere un nuevo enfoque para la formulación de políticas, uno en el que personas de una amplia variedad de campos, incluida la ley, informática y medicina, aborde el problema antes de que se convierta en algo frecuente. Tales grupos podrían, quizás, encontrar formas de evitar que suceda, o al menos detectarlo si lo hace.

    © 2019 Science X Network




    © Ciencia https://es.scienceaq.com