• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • YouTubes Notre Dame-9/11 flub destaca los puntos ciegos de la IA

    En esta imagen puesta a disposición el martes 16 de abril, 2019 llamas y humo se elevan desde el incendio cuando la aguja comienza a caer en la catedral de Notre Dame en París, Lunes, 15 de abril, 2019. Un infierno que arrasó la catedral de Notre Dame durante más de 12 horas destruyó su aguja y su techo, pero salvó sus campanarios medievales gemelos. y un frenético esfuerzo de rescate salvó los "tesoros más preciados del monumento, "incluyendo la Corona de Espinas que supuestamente usó Jesús, funcionarios dijeron el martes. (Foto AP / Thierry Mallet)

    YouTube podría necesitar algunos humanos más. Las máquinas cuyo trabajo es aplastar las teorías de la conspiración aún no lo están haciendo.

    Mientras personas de todo el mundo acudían el lunes a YouTube para ver arder la catedral de Notre Dame en París, un sistema automatizado adjuntó información de antecedentes sobre los ataques terroristas del 11 de septiembre en Nueva York para transmitir videos en vivo del incendio.

    No se ha determinado la causa del incendio. pero las autoridades dijeron que parecía ser accidental, no incendio o terrorismo.

    La nota de antecedentes fue publicada por un sistema que YouTube implementó recientemente para combatir conspiraciones conocidas sobre eventos como el alunizaje o el 11 de septiembre. En este caso, el algoritmo podría haber tenido el efecto contrario, alimentando especulaciones sobre la causa del incendio y quién podría estar detrás de él.

    Es el último ejemplo de fallas en la inteligencia artificial, y una señal de que tenemos un largo camino por recorrer antes de que la IA se vuelva lo suficientemente inteligente como para comprender los matices y el contexto.

    En una oracion, YouTube explicó que la información de fondo, una entrada de la Enciclopedia Británica, fue colocada por error allí por algoritmos destinados a proteger a los usuarios de material falso que se difunde a raíz de algunos eventos noticiosos.

    Los algoritmos de YouTube tienen un historial de fallar y etiquetar videos de manera inapropiada. Joshua Benton, director del Laboratorio de Periodismo Nieman de la Universidad de Harvard, señaló varios en una publicación de blog el lunes.

    El otoño pasado, por ejemplo, YouTube etiquetó un video de la jubilación de un profesor de la Universidad Estatal de Michigan con la entrada de la Enciclopedia Británica para "Judío, "junto con una estrella de David colocada debajo de la imagen. El profesor, Ken Waltzer, había sido director del programa de estudios judíos de la universidad, pero Benton notó que nada en el título o descripción del video mencionaba algo judío.

    El algoritmo de YouTube, que presumiblemente está preparado para acabar con las conspiraciones antisemitas, de alguna manera lo hizo por sí solo.

    Cuando YouTube anunció sus esfuerzos contra la conspiración el verano pasado, dijo que contrarrestaría la información falsa con fuentes en las que la gente generalmente confía, como Wikipedia y la Enciclopedia Británica. Dijo que agregaría antecedentes de estas fuentes a los videos que presentan temas comunes de conspiración (por ejemplo, vacunas, tiroteos en escuelas o el atentado de la ciudad de Oklahoma en 1995), independientemente de si los videos apoyaban una teoría de la conspiración.

    Los videos del incendio de Notre Dame se mostraron en grande, organizaciones de noticias de confianza. La inteligencia artificial de YouTube, sin embargo, no hizo excepciones.

    Los lunes, la compañía corrigió rápidamente el error de Notre Dame y dijo que sus sistemas "a veces toman la decisión incorrecta". Apagó los paneles de información para los videos del incendio, pero no dijo si estaba analizando la práctica de manera más amplia.

    "Creo que están de ida y vuelta sobre lo bueno que está haciendo esto, ", Dijo Benton." Llega a la pregunta central que vemos con Facebook y YouTube y cualquier otra plataforma tecnológica que aspire a una escala global. Hay demasiado contenido para monitorear y no se puede hacer que los seres humanos monitoreen todos los videos ".

    En lugar de, tenemos máquinas que claramente todavía están aprendiendo en el trabajo.

    "Una cosa es equivocarse cuando hay poco en juego, ", Dijo Benton." Cuando es la noticia más importante del mundo, parece que podrían tener más personas mirándolo ".

    © 2019 The Associated Press. Reservados todos los derechos.




    © Ciencia https://es.scienceaq.com