• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los bots podrían resultar más difíciles de detectar en las elecciones de 2020

    Crédito:CC0 Public Domain

    Científico informático del Instituto de Ciencias de la Información de la USC (USC ISI), Emilio Ferrara, tiene una nueva investigación que indica que los bots o las cuentas falsas habilitadas por la inteligencia artificial en las redes sociales han evolucionado y ahora pueden copiar mejor los comportamientos humanos para evitar ser detectados.

    En el diario Primer lunes , investigación de Ferrara y sus colegas Luca Luceri (Scuola Universitaria Professionale della Svizzera Italiana), Ashok Deb (USC ISI), Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana), examinar el comportamiento de los bots durante las elecciones de 2018 en EE. UU. en comparación con el comportamiento de los bots durante las elecciones de 2016 en EE. UU.

    Los investigadores estudiaron casi 250, 000 usuarios activos de las redes sociales que hablaron sobre las elecciones estadounidenses tanto en 2016 como en 2018, y detectado más de 30, 000 bots. Descubrieron que los bots en 2016 se centraban principalmente en retweets y grandes volúmenes de tweets en torno al mismo mensaje. Sin embargo, a medida que la actividad social humana en línea ha evolucionado, también lo han hecho los bots. En la temporada electoral de 2018, así como los humanos eran menos propensos a retuitear tanto como lo hicieron en 2016, era menos probable que los bots compartieran los mismos mensajes en un gran volumen.

    Bots los investigadores descubrieron, eran más propensos a emplear un enfoque de varios bots como para imitar el compromiso humano auténtico en torno a una idea. También, durante las elecciones de 2018, ya que era mucho más probable que los humanos intentaran participar a través de respuestas, Los bots intentaron establecer una voz y agregar al diálogo y participar mediante el uso de encuestas, una estrategia típica de agencias de noticias y encuestadores de renombre, posiblemente con el objetivo de otorgar legitimidad a estas cuentas.

    En un ejemplo, una cuenta de bot publicó una encuesta de Twitter en línea preguntando si las elecciones federales deberían exigir a los votantes que muestren una identificación en las urnas. Luego pidió a los usuarios de Twitter que votaran y retuitearan.

    Autor principal, Emilio Ferrara, señalado, "Nuestro estudio corrobora aún más esta idea de que existe una carrera armamentista entre los bots y los algoritmos de detección. A medida que las empresas de redes sociales se esfuerzan más por mitigar el abuso y reprimir las cuentas automatizadas, Los bots evolucionan para imitar las estrategias humanas. Los avances en inteligencia artificial permiten a los bots producir contenido más parecido a los humanos. Necesitamos dedicar más esfuerzos para comprender cómo evolucionan los bots y cómo se pueden detectar los más sofisticados. Con las próximas elecciones estadounidenses de 2020, la integridad del discurso de las redes sociales es de suma importancia para permitir un proceso democrático libre de influencias externas ".


    © Ciencia https://es.scienceaq.com