• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La IA ahora puede crear pornografía falsa, haciendo que el porno de venganza sea aún más complicado

    La pornografía generada por IA, conocida como "deepfakes", es cada vez más convincente, impecable y real. Crédito:Shutterstock

    En enero de este año, se lanzó una nueva aplicación que brinda a los usuarios la capacidad de intercambiar caras en un video con una cara diferente obtenida de otra foto o video, similar a la función de "intercambio de caras" de Snapchat. Es una versión cotidiana del tipo de imágenes generadas por computadora (CGI) de alta tecnología que vemos en las películas.

    Quizás lo reconozcas por el cameo de una joven princesa Leia en la película de Star Wars de 2016. Rogue One , que utilizó el cuerpo de otro actor y metraje de la primera película de Star Wars creada 39 años antes.

    Ahora, cualquiera que tenga una computadora de alta potencia, una unidad de procesamiento de gráficos (GPU) y el tiempo disponible pueden crear videos falsos realistas, conocidos como "deepfakes", utilizando inteligencia artificial (IA).

    Suena divertido, ¿Derecha?

    El problema es que estas mismas herramientas son accesibles para quienes buscan crear pornografía de amigos no consensuada, colegas de trabajo, compañeros de clase, ex socios y completos desconocidos, y publíquelo en línea.

    La evolución de los deepfakes

    En diciembre de 2017, Motherboard reveló la historia de un usuario de Reddit conocido como "deep fakes", que utilizó inteligencia artificial para intercambiar los rostros de actores en videos pornográficos con rostros de celebridades conocidas. Luego, otro usuario de Reddit creó la aplicación de escritorio llamada FakeApp.

    Permite a cualquier persona, incluso a aquellos sin habilidades técnicas, crear sus propios videos falsos utilizando el marco de aprendizaje automático de código abierto TensorFlow de Google.

    La tecnología utiliza un método de inteligencia artificial conocido como "aprendizaje profundo", lo que implica alimentar a una computadora con datos que luego la computadora usa para tomar decisiones. En el caso de la pornografía falsa, la computadora evaluará qué imágenes faciales de una persona serán más convincentes como un intercambio de caras en un video pornográfico.

    Conocido como porno "morph", o "pornografía parasitaria", Los videos o fotografías de sexo falsos no son un fenómeno nuevo. Pero lo que hace de los deepfakes un problema nuevo y preocupante es que la pornografía generada por IA parece mucho más convincente y real.

    Otra forma de abuso sexual basado en imágenes

    Creando, distribuir o amenazar con distribuir pornografía falsa sin el consentimiento de la persona cuyo rostro aparece en el video es una forma de "abuso sexual basado en imágenes" (IBSA). También conocida como "pornografía no consentida" o "pornografía de venganza", es una invasión de la privacidad y una violación del derecho a la dignidad, autonomía sexual y libertad de expresión.

    En un caso de morph porn, las fotos de una mujer australiana fueron robadas de sus cuentas de redes sociales, superpuesto a imágenes pornográficas y luego publicado en varios sitios web. Ella describió la experiencia como que la hizo sentirse "físicamente enferma, disgustado, enfadado, degradado, deshumanizado ".

    Sin embargo, las respuestas a este tipo de abuso sexual siguen siendo inconsistentes. Australia carece de regulación, y en otros lugares.

    El rostro de Donald Trump se cambia al cuerpo de Alec Baldwin mientras hace su impresión de Donald Trump.

    Recurso conforme al derecho penal australiano

    Sur de Australia, NSW, Victoria y ACT tienen delitos penales específicos por abuso sexual basado en imágenes con penas de hasta cuatro años de prisión. Sur de Australia, Nueva Gales del Sur y la ACT definen explícitamente una imagen "íntima" o "invasiva" que incluye imágenes que han sido alteradas o manipuladas.

    Las jurisdicciones sin delitos penales específicos podrían basarse en leyes penales más generales. Por ejemplo, el delito federal de telecomunicaciones de "utilizar un servicio de transporte para amenazar, acosar o causar ofensa ", o delitos estatales y territoriales como filmación ilegal, indecencia, acecho voyerismo o chantaje.

    Pero no está claro si esas leyes se aplicarían a los casos de "pornografía falsa", lo que significa que actualmente, la ley penal proporciona una protección inconsistente para las víctimas de abuso sexual basadas en imágenes en toda Australia.

    Recurso de derecho civil australiano

    Las víctimas tienen pocos recursos bajo la ley de derechos de autor a menos que puedan demostrar que son los dueños de la imagen. No está claro si eso significa el propietario de la imagen de la cara o el propietario del video original. Pueden tener mejor suerte bajo la ley de difamación. Aquí el demandante debe probar que el acusado publicó material falso y despectivo que lo identifica.

    Proseguir un litigio civil, sin embargo, requiere mucho tiempo y es costoso. Hará poco para detener la difusión de imágenes de desnudos o sexuales no consensuadas en Internet. También, Australian civil and criminal laws will be ineffective if the perpetrator is located overseas, or if the perpetrator is an anonymous content publisher.

    Addressing the gap in legislation

    The Australian Parliament is currently debating the Enhancing Online Safety (Non-Consensual Sharing of Intimate Images) Bill 2017. This bill, which is yet to become law, seeks to give the Office of the eSafety Commissioner the power to administer a complaints system and impose formal warnings, removal notices or civil penalties on those posting or hosting non-consensual intimate images.

    Civil penalties are up to A$105, 000 for "end-users" (the individuals posting the images) or A$525, 000 for a social media, internet service or hosting service provider.

    En tono rimbombante, the proposed legislation covers images which have been altered, and so could apply to instances of deepfakes or other kinds of fake porn.

    Prevention and response beyond the law

    While clear and consistent laws are crucial, online platforms also play an important role in preventing and responding to fake porn. Platforms such as Reddit, Twitter and PornHub have already banned deepfakes. Sin embargo, at the time of writing, the clips continue to be available on some of these sites, as well as being posted and hosted on other websites.

    Read more:Facebook wants your nude photos to prevent 'revenge porn' – here's why you should be sceptical

    A key challenge is that it is difficult for online platforms to distinguish between what is fake and what is real, unless victims themselves discover their images are online and contact the site to request those images be removed.

    Yet victims may only become aware of the fake porn when they start receiving harassing communications, sexual requests, or are otherwise alerted to the images. Para entonces, the harm is often already done. Technical solutions, such as better automated detection of altered imagery, may offer a way forward.

    To adequately address the issue of fake porn, it is going to take a combination of better laws, cooperation from online platforms, as well as technical solutions. Like other forms of image-based sexual abuse, support services as well as prevention education are also important.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com