• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Predecir cuándo las conversaciones en línea se vuelven tóxicas

    Crédito:CC0 Public Domain

    Internet ofrece el potencial para el diálogo constructivo y la cooperación, pero las conversaciones en línea degeneran con demasiada frecuencia en ataques personales. Con la esperanza de que esos ataques puedan evitarse, Los investigadores de Cornell han creado un modelo para predecir qué conversaciones civiles podrían tomar un giro tóxico.

    Después de analizar cientos de intercambios en Wikipedia, Los investigadores desarrollaron un programa de computadora que busca señales de alerta, como repetidas, preguntas directas y uso de la palabra "usted" en las dos primeras publicaciones, para predecir qué conversaciones inicialmente civiles saldrían mal.

    Intercambios tempranos que incluyeron saludos, expresiones de gratitud, setos como "parece, "y las palabras" yo "y" nosotros "tenían más probabilidades de ser corteses, el estudio encontró.

    "Hay millones de estas discusiones, y no es posible monitorearlos todos en vivo. Este sistema podría ayudar a los moderadores humanos a dirigir mejor su atención, "dijo Cristian Danescu-Niculescu-Mizil, profesor asistente de ciencias de la información y coautor del artículo "Conversations Gone Awry:Detecting Early Signs of Conversational Failure".

    "Nosotros, como humanos, tenemos la intuición de cómo detectar si algo va mal, pero es solo una sospecha. No podemos hacerlo el 100 por ciento del tiempo. Por lo tanto, nos preguntamos si podemos construir sistemas para replicar esta intuición, porque los humanos son caros y ocupados, y creemos que este es el tipo de problema en el que las computadoras tienen el potencial de superar a los humanos, "Dijo Danescu-Niculescu-Mizil.

    El modelo de computadora, que también consideró la perspectiva de Google, una herramienta de aprendizaje automático para evaluar la "toxicidad, "fue correcto alrededor del 65 por ciento de las veces. Los humanos adivinaron correctamente el 72 por ciento de las veces.

    Las personas pueden probar su propia capacidad para adivinar qué conversaciones descarrilarán en un cuestionario en línea.

    El estudio analizó 1, 270 conversaciones que comenzaron civilmente pero degeneraron en ataques personales, extraídos de 50 millones de conversaciones en 16 millones de páginas de "charlas" de Wikipedia, donde los editores debaten artículos u otros temas. Examinaron intercambios en parejas, comparar cada conversación que terminó mal con una que tuvo éxito sobre el mismo tema, por lo que los resultados no se vieron sesgados por temas delicados como la política.

    El papel, coescrito con Cornell Ph.D. la estudiante de ciencias de la información Justine Zhang; Doctor. estudiantes de ciencias de la computación Jonathan P. Chang, y Yiqing Hua; Lucas Dixon y Nithum Thain de Jigsaw; y Dario Taraborelli de la Fundación Wikimedia, se presentará en la reunión anual de la Asociación de Lingüística Computacional, del 15 al 20 de julio en Melbourne, Australia.

    Los investigadores esperan que este modelo se pueda utilizar para rescatar conversaciones en riesgo y mejorar el diálogo en línea. en lugar de prohibir a usuarios específicos o censurar ciertos temas. Algunos carteles en línea, como hablantes de inglés no nativos, es posible que no se den cuenta de que pueden ser percibidos como agresivos, y las advertencias de dicho sistema podrían ayudarlos a autoajustarse.

    "Si tengo herramientas que detectan ataques personales, ya es demasiado tarde, porque el ataque ya ocurrió y la gente ya lo vio, "Dijo Chang." Pero si entiendes que esta conversación va en una mala dirección y actúas, entonces, eso podría hacer que el lugar sea un poco más acogedor ".


    © Ciencia https://es.scienceaq.com