• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo la IA está ayudando a predecir y prevenir suicidios

    Un proyecto piloto de 2018 entre la Agencia de Salud Pública de Canadá y Advanced Symbolics utilizará publicaciones en las redes sociales como un recurso para predecir las tasas regionales de suicidio. Crédito:Shutterstock

    El suicidio es un problema de salud pública cada vez mayor. En Canadá, 4, Cada año se suicidan 000 vidas, es decir, 10 vidas por día.

    Por cada una de estas muertes por suicidio, hay cinco personas hospitalizadas por autolesión, De 25 a 30 intentos de suicidio y de siete a diez personas afectadas por cada tragedia, según análisis de la Agencia de Salud Pública de Canadá.

    Las tasas de suicidio son más altas entre ciertos grupos, como los pueblos indígenas, inmigrantes y refugiados, prisioneras y lesbianas, gay bisexual, Transgénero, comunidad intersexual (LGBTI), y están en aumento.

    Los impactos del suicidio se sienten ampliamente. La Comisión de Tránsito de Toronto (TTC) informó recientemente un aumento en los suicidios en tránsito a fines de 2017, con ocho intentos solo en diciembre, y un aumento correspondiente en las tasas de licencia por estrés de los empleados de TTC, debido al costo que esto tuvo para el personal.

    ¿Podría la inteligencia artificial (IA), o inteligencia demostrada por máquinas, posiblemente ayude a prevenir estas muertes?

    Como investigadores en psiquiatría, en la Red Canadiense de Integración de Biomarcadores para la Depresión, estamos recopilando datos clínicos y biológicos durante las intervenciones de tratamiento para personas con depresión mayor. Estamos explorando las primeras pistas sobre los cambios en el comportamiento y los estados de ánimo utilizando tecnologías de salud móviles.

    Uno de nuestros objetivos es identificar predictores tempranos de recaída, y mayor riesgo de comportamiento suicida.

    Aquí revisamos otras aplicaciones prometedoras de la IA para la prevención del suicidio, y llamar la atención sobre las barreras dentro de este campo.

    AI predice tasas de suicidio

    A principios de 2018, la Agencia de Salud Pública de Canadá anunció un proyecto piloto con Advanced Symbolics, una empresa de inteligencia artificial con sede en Ottawa que predijo con éxito el Brexit, La presidencia de Trump y los resultados de las elecciones canadienses de 2015.

    El proyecto investigará y predecirá las tasas regionales de suicidio mediante el examen de patrones en las publicaciones de las redes sociales canadienses, incluido el contenido relacionado con el suicidio. aunque no se recopilará la identidad del usuario.

    El programa no aislará casos de alto riesgo ni intervendrá a nivel individual. En lugar de, Los hallazgos se utilizarán para informar la planificación de recursos de salud mental.

    Facebook alerta a los servicios de emergencia

    En 2011, Facebook desarrolló un sistema de informes de suicidio manual donde los usuarios podían cargar capturas de pantalla del contenido de suicidio para su revisión.

    En 2015, el sistema permitía a los usuarios "marcar" sobre el contenido, lo que haría que el personal de Facebook revisara la publicación y respondiera con recursos de apoyo.

    Debido al éxito de la herramienta, Facebook ha comenzado a ampliar sus capacidades de inteligencia artificial para detectar automáticamente contenido relacionado con el suicidio. y alertar a los servicios de emergencia locales. También hay más opciones de idioma, y una extensión en Instagram.

    Los chatbots dan terapia para la depresión

    La IA se ha utilizado en la atención médica desde la década de 1990 para mejorar la detección de enfermedades y varios índices de bienestar.

    Dentro de la salud mental, La IA ha mejorado la velocidad y la precisión del diagnóstico, y aplicaron "árboles de decisión" para guiar la selección del tratamiento.

    Un nuevo enfoque de la "terapia" implica bots conversacionales (o chatbots) que son programas de computadora diseñados para simular una conversación similar a la de los humanos usando respuestas de voz o texto.

    Los chatbots pueden ofrecer intervenciones psicológicas para la depresión y la ansiedad basadas en la terapia cognitivo-conductual (TCC). Dado que los chatbots responden de forma única al diálogo presentado, pueden adaptar las intervenciones al estado emocional y las necesidades clínicas del paciente. Estos modelos se consideran bastante fáciles de usar, y las respuestas adaptadas al usuario del propio chatbot han sido bien revisadas.

    Se está agregando tecnología similar a los teléfonos inteligentes para permitir asistentes de voz, como Siri del iPhone, reconocer y responder a los problemas de salud mental de los usuarios con la información adecuada y los recursos de apoyo. Sin embargo, esta tecnología no se considera confiable y aún se encuentra en sus etapas preliminares. Otras aplicaciones de teléfonos inteligentes incluso utilizan juegos para mejorar la educación sobre la salud mental.

    La tecnología de IA también se ha integrado en la gestión del suicidio para mejorar la atención al paciente en otras áreas. Se ha demostrado que las herramientas de evaluación de la IA predicen el riesgo de suicidio a corto plazo y hacen recomendaciones de tratamiento que son tan buenas como las de los médicos. Las herramientas también son bien consideradas por los pacientes.

    Los modelos de IA predicen el riesgo individual

    La evaluación y el manejo actuales del riesgo de suicidio siguen siendo muy subjetivos. Para mejorar los resultados, Se necesitan estrategias de IA más objetivas. Las aplicaciones prometedoras incluyen la predicción del riesgo de suicidio y la gestión clínica.

    El suicidio está influenciado por una variedad de factores psicosociales, biológico, ambiental, factores económicos y culturales. La IA se puede utilizar para explorar la asociación entre estos factores y los resultados del suicidio.

    La IA también puede modelar el efecto combinado de múltiples factores sobre el suicidio, y utilice estos modelos para predecir el riesgo individual.

    Como ejemplo, investigadores de la Universidad de Vanderbilt diseñaron recientemente un modelo de inteligencia artificial que predijo el riesgo de suicidio, el uso de historiales médicos electrónicos, con una precisión del 84 al 92 por ciento dentro de una semana de un evento de suicidio y del 80 al 86 por ciento dentro de los dos años.

    Avanzando con precaución

    A medida que avanza el campo de la prevención del suicidio mediante inteligencia artificial, hay varias barreras potenciales que deben abordarse:

    1. Privacidad:la legislación protectora deberá ampliarse para incluir los riesgos asociados con la IA, específicamente la colección, almacenamiento, transferencia y uso de información médica confidencial.
    2. Precisión:será necesario confirmar la precisión de la IA para determinar correctamente la intención de suicidio, específicamente en lo que respecta a sesgos o errores del sistema, antes de etiquetar a una persona como de alto (versus bajo) riesgo.
    3. Seguridad:es esencial garantizar que los programas de inteligencia artificial puedan responder adecuadamente a los usuarios suicidas. para no empeorar su estado emocional o facilitar accidentalmente la planificación del suicidio.
    4. Responsabilidad:se necesitan protocolos de respuesta sobre cómo manejar adecuadamente los casos de alto riesgo que están marcados por la tecnología de IA, y qué hacer si las evaluaciones del riesgo de IA difieren de la opinión clínica.
    5. Falta de comprensión:existe una brecha de conocimiento entre los usuarios clave sobre cómo la tecnología de inteligencia artificial se adapta a la prevención del suicidio. Se necesita más educación sobre el tema para abordar esto.

    En general, La tecnología de IA llegó para quedarse en muchos aspectos de la atención médica, incluida la detección del suicidio y la administración de intervenciones.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com