Crédito:CC0 Public Domain
Un equipo de investigadores de la Universidad de Cornel que trabaja con la Fundación Wikimedia ha creado un marco digital para detectar cuándo es probable que una discusión en línea se ponga fea. En un documento subido al arXiv servidor de preimpresión, el equipo describe su enfoque y qué tan bien funcionó su algoritmo durante las pruebas.
Como señalan los investigadores, Las conversaciones en línea a menudo pueden degenerar en desacuerdos y, a menudo, en ataques personales. Señalan además que este suele ser el caso cuando las personas entran en un entorno que implica críticas, como Wikipedia. Allí, Se anima a los editores aficionados a ofrecer críticas del trabajo de otros como un medio para mejorar el contenido del sitio web. Desafortunadamente, mucha gente no responde bien a tales críticas, y como un resultado, recurrir a publicar comentarios desagradables. Al equipo de la Fundación Wikimedia le gustaría frenar este tipo de conversaciones, porque además de fomentar los malos sentimientos, también le da al sitio una mala reputación. Para enfrentar el problema, el equipo trabajó con el grupo en Cornell, que han estado investigando el mismo problema; a saber, construir un sistema informático que sea capaz de reconocer cuándo es probable que una conversación humana degenere en maldad, y para frenarlo, o finalizar la conversación para las personas involucradas.
Para resolver este problema, los investigadores analizaron más de 1, 200 conversaciones en línea en las páginas de Wikipedia Talk en busca de pistas lingüísticas. En este contexto, las señales eran palabras que sugerían comportamiento y nivel de cortesía. Al hacerlo, descubrieron que cuando las personas usaban señales como "por favor" y "gracias, "había menos posibilidades de que las cosas se pusieran feas. También había frases positivas, como "Yo creo" o "Yo creo", que sugerían un intento de mantener las cosas en forma civilizada, que tendía a mantener las cosas en equilibrio. Por otra parte, también encontraron pistas menos útiles, como cuando las conversaciones comenzaron con preguntas directas o la palabra "usted". Tales señales tendían a conducir a la degradación de la civilidad en algún momento y, los investigadores sugieren, a menudo son vistos por un lector como hostiles y contenciosos.
Luego, el equipo desarrolló un algoritmo que aceptaba señales como datos aprendidos y luego analizaba oraciones en busca de esas señales y les aplicaba una intuición similar a la humana. El resultado, el equipo informa, era un marco computarizado que podía reconocer temprano cuándo era probable que una conversación degenerara en un feo juego de ida y vuelta. Descubrieron que el sistema tenía una precisión del 61,6 por ciento. Humanos haciendo la misma prueba sin embargo, obtuvo un 72 por ciento.
© 2018 Phys.org