• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • El problema de los pedófilos en YouTubes es solo una pequeña parte del problema de Internet con el abuso sexual infantil

    No basta con eliminar páginas web ilegales. Crédito:Thomas Holt / Shutterstock

    YouTube tiene una vez más no protegió a los niños en línea. Investigaciones recientes de Wired y el bloguero de video Matt Watson han alegado que los pedófilos estaban usando la sección de comentarios del sitio para dejar mensajes depredadores en videos que contenían y subían niños, y compartir enlaces a material de abuso sexual infantil.

    En respuesta a las investigaciones, y a la amenaza de un boicot de anunciantes, YouTube ahora ha dicho que deshabilitará los comentarios en videos que contengan niños pequeños. Pero tristemente, este no es un incidente aislado. En enero de 2019 se alegó que el motor de búsqueda Bing de Microsoft estaba apareciendo y sugiriendo material de abuso sexual infantil. Y este tipo de incidentes son repeticiones de problemas similares que han ocurrido durante los últimos cinco años.

    La realidad es que Internet tiene un problema sistémico con el material de abuso sexual infantil que no se limita a sitios especializados o la web oscura, sino que se esconde a plena vista entre el contenido alojado y controlado por los gigantes tecnológicos. Debemos hacer más para proteger a los niños en línea y esta acción tiene que ir más allá de los ajustes a los algoritmos o la desactivación de los comentarios.

    En 2016, más de 57, La Fundación Internet Watch, un organismo con sede en el Reino Unido que identifica y elimina ese contenido ilegal, realizó un seguimiento de 000 páginas web que contenían imágenes de abuso sexual infantil. Este fue un aumento del 21% con respecto al año anterior. El Centro Nacional para Niños Desaparecidos y Explotados con sede en EE. UU. Recibió más de 10 millones de informes de contenido de abuso sexual infantil en 2017, un aumento del 22% con respecto a los 12 meses anteriores. Es probable que estas iniciativas, si bien es muy necesario, están identificando y eliminando solo una pequeña cantidad del contenido que se distribuye en línea todos los días.

    Las imágenes que muestran el abuso infantil que se publican en línea tienen un impacto severo en estos niños abusados ​​durante años o décadas después de que haya terminado el abuso físico primario. Los niños abusados ​​ya han sido victimizados, pero la investigación muestra que la disponibilidad de sus imágenes en línea mantiene viva la pesadilla para el niño, su familia y amigos. También puede afectar significativamente la interacción de la víctima con Internet por el resto de sus vidas.

    Las empresas de tecnología están en una posición única para actuar como guardianes del umbral al eliminar y reportar contenido sexualmente explícito que se carga en sus servicios. Entonces, ¿por qué no hacen más para proteger de manera agresiva a millones de niños en todo el mundo?

    Incluso en los primeros días de la web, estaba claro que los servicios proporcionados por las empresas de tecnología se estaban utilizando para difundir contenido de abuso sexual infantil. Ya en 1995, las salas de chat de AOL, una encarnación temprana de las redes sociales, supuestamente se usaron para compartir material de abuso infantil. En respuesta, Los ejecutivos de AOL en ese momento afirmaron que estaban haciendo todo lo posible para controlar los abusos en su sistema, pero que su sistema era demasiado grande para administrarlo. Esta es precisamente la misma excusa que escuchamos más de dos décadas después de los titanes de la tecnología.

    Entre 2003 y 2008, a pesar de las repetidas promesas de actuar, las principales empresas de tecnología no desarrollaron ni utilizaron tecnología que pudiera encontrar y eliminar contenido ilegal o dañino, a pesar de que violó sus términos de servicio. Luego, en 2009, Microsoft trabajó con el Centro Nacional para Niños Desaparecidos y Explotados y un equipo en Dartmouth College que incluía a uno de nosotros (Hany Farid) para desarrollar la tecnología fotoDNA. Este software encuentra y elimina rápidamente instancias conocidas de contenido sexual infantil a medida que se carga, y se ha proporcionado sin costo a las empresas de tecnología que participan en la iniciativa.

    Después de años de presión, photoDNA ahora es utilizado por muchos servicios web y redes. Pero las empresas de tecnología no han logrado innovar más para responder a un mundo criminal cada vez más sofisticado. Por ejemplo, a pesar de prever el aumento de videos de abuso infantil, Las empresas de tecnología aún no han implementado sistemas que puedan identificar metraje ofensivo como el que puede hacer el PhotoDNA para las imágenes.

    Estas empresas deben actuar más rápidamente para bloquear y eliminar imágenes ilegales. así como responder a otras actividades que posibiliten y fomenten la explotación infantil. Esto significa desarrollar continuamente nuevas tecnologías, pero también repensar fundamentalmente el incentivo perverso de ganar dinero con el contenido de los usuarios, independientemente de cuál sea ese contenido.

    De pie en el camino del control

    Sin embargo, una combinación de finanzas, Los problemas legales y filosóficos se interponen en el camino de las empresas de tecnología que controlan las actividades ilegales en sus servicios. En la primera instancia, En muchos casos, eliminar contenido es simplemente malo para los negocios porque reduce las oportunidades de ingresos publicitarios y la recopilación de datos de los usuarios (que también se pueden vender).

    Mientras tanto, la ley a menudo absuelve a las empresas de tecnología de la responsabilidad por el contenido que alojan. En los EE.UU, La sección 230 de la Ley de Decencia en las Comunicaciones otorga a las empresas de tecnología una amplia inmunidad frente al enjuiciamiento por las actividades ilegales de sus usuarios. Esta inmunidad se basa en clasificar a los gustos de YouTube o Facebook como "plataformas" benignas en lugar de "editores" activos. La situación en la UE es similar. Y lo que es más, Algunas empresas de tecnología creen que la actividad ilegal es responsabilidad del Estado, en lugar de una corporativa.

    Dado el tamaño, riqueza y alcance de los gigantes tecnológicos, estas excusas no justifican la inacción. Necesitan moderar proactivamente el contenido y eliminar las imágenes ilegales que se han subido a sus sitios. Podrían y deberían ayudar a informar la investigación en esta área vital de la seguridad infantil, trabajando con las fuerzas del orden y los investigadores para investigar y exponer el flagelo del abuso infantil en línea.

    Los anunciantes pueden ejercer presión financiera para alentar a los sitios a moderar y bloquear el contenido ilegal y abusivo de terceros (como han hecho varias empresas tras las últimas fallas en YouTube). Pero esos boicots rara vez duran. Entonces, si la presión pública no es suficiente, entonces puede ser necesaria una regulación gubernamental que obligue a las empresas a cumplir con sus propios términos de servicio y las leyes locales.

    Esto puede ser difícil de controlar. Puede tener consecuencias no deseadas, como hacer más difícil para las pequeñas empresas competir con los gigantes actuales de la tecnología. O puede alentar a las empresas a reaccionar de forma exagerada y volverse demasiado restrictivas sobre el contenido permitido. En ese caso, preferiríamos que las empresas de tecnología aprovechen su enorme riqueza y recursos y simplemente hagan lo correcto.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com