• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cuidado con la forma en que trata la IA de hoy:podría vengarse en el futuro

    Puede que no nos guste la forma en que la IA del futuro nos responde. Crédito:Shutterstock / Mykola Holyutyak

    Los sistemas de inteligencia artificial (IA) se están volviendo más parecidos a nosotros. Puedes pedirle a Google Home que apague las luces de tu habitación, por mucho que le preguntes a tu compañero humano.

    Cuando envía consultas por mensaje de texto a Amazon en línea, A veces no está claro si te responde un humano o la tecnología de chatbot de la empresa.

    Es evidente que existe un mercado para las máquinas con capacidades psicológicas humanas. Pero deberíamos pensar en lo que podríamos crear sin darnos cuenta.

    ¿Qué pasa si hacemos que la IA sea tan buena como seres humanos que nuestro tratamiento puede hacerla sufrir? Podría sentirse con derecho a vengarse de nosotros.

    Máquinas que 'sienten'

    Con las habilidades psicológicas humanas puede venir la sensibilidad. Los filósofos entienden la sensibilidad como la capacidad de sufrir y sentir placer.

    Y los seres sintientes pueden resultar perjudicados. Es un tema planteado por el filósofo australiano Peter Singer en su libro de 1975 Animal Liberation, que preguntó cómo deberíamos tratar a los animales no humanos. Escribió:"Si un ser sufre, no puede haber ninguna justificación moral para negarse a tener en cuenta ese sufrimiento. No importa cuál sea la naturaleza del ser, el principio de igualdad requiere que su sufrimiento se cuente por igual con el sufrimiento similar - en la medida en que se puedan hacer comparaciones aproximadas - de cualquier otro ser ".

    Singer ha dedicado una carrera a defender a los animales, que son seres sintientes incapaces de hablar por sí mismos.

    Hablando a favor de la IA

    Los investigadores en IA buscan hacer una AGI o inteligencia artificial general, una máquina capaz de cualquier tarea intelectual realizada por un ser humano. La IA ya puede aprender pero AGI podrá realizar tareas más allá de aquello para lo que está programado.

    Los expertos no están de acuerdo sobre qué tan lejos está un AGI. El inventor de tecnología estadounidense Ray Kurzweil espera un AGI pronto, tal vez 2029. Otros piensan que podríamos tener que esperar un siglo.

    Pero si estamos interesados ​​en tratar bien a los seres sintientes, es posible que no tengamos que esperar hasta la llegada de un AGI.

    Uno de los puntos de Singer es que muchos seres sensibles no alcanzan la inteligencia humana. Por ese argumento, La IA no tiene que ser tan inteligente como un ser humano para ser sensible.

    El problema es que no existe una prueba sencilla de sensibilidad.

    Enviar una misión tripulada por humanos a Marte es muy desafiante, pero al menos lo sabremos cuando lo hayamos hecho.

    Hacer una máquina con sentimientos es un desafío de una manera filosóficamente desconcertante. Debido a que carecemos de criterios claros para la sensibilidad de las máquinas, no podemos estar seguros de cuándo lo hemos hecho.

    Mira a la ciencia ficción

    La ambigüedad de la sensibilidad de las máquinas es una característica de varias presentaciones de ciencia ficción de la IA.

    Por ejemplo, Niska es un robot humanoide, un sintetizador, sirviendo como trabajadora sexual en la serie de televisión Humans. Se nos dice que a diferencia de la mayoría de los sintetizadores, ella es sensible.

    Cuando le preguntan a Niska por qué mató a un cliente, ella explica:"Quería ser rudo".

    La abogada humana Laura Hawkins responde:"Pero, ¿Está mal si no pensaba que pudieras sentir? … ¿No es mejor que ejerza sus fantasías contigo en un burdel en lugar de desahogarse con alguien que realmente puede sentir? "

    Desde una perspectiva humana, uno podría pensar que la agresión sexual dirigida contra una máquina no sensible es un crimen sin víctimas.

    Pero, ¿qué pasa con un robot sexual que ha adquirido sensibilidad? Niska continúa explicando que estaba asustada por el comportamiento del cliente hacia ella. "Y lamento no poder llorar o ... sangrar o retorcerme las manos para que lo sepas. Pero te lo digo, Era."

    Humans no es la única historia de ciencia ficción que advierte sobre los ataques de venganza de máquinas diseñadas para ser explotadas por humanos por placer y dolor.

    En el remake televisivo de Westworld, los humanos ingresan a un parque temático y matan a los anfitriones de Android con el abandono de las masacres de Xbox, seguros de que sus víctimas no tienen resentimientos porque no pueden tener ningún sentimiento.

    Pero aqui de nuevo algunos anfitriones han adquirido en secreto la sensibilidad y se vengan de sus torturadores humanos.

    Solo somos humanos

    ¿Es solo ciencia ficción? ¿Están muy lejos las máquinas sensibles? Quizás. Talvez no.

    Pero los malos hábitos pueden tardar un tiempo en desaprenderse. Nosotros, o más bien los animales, todavía estamos sufriendo la resaca filosófica de la terrible idea del pensador francés del siglo XVII René Descartes de que los animales son autómatas sin mente, carentes de sensibilidad.

    Si vamos a hacer máquinas con capacidades psicológicas humanas, debemos prepararnos para la posibilidad de que se vuelvan sensibles. Entonces, ¿cómo reaccionarán a nuestro comportamiento hacia ellos?

    Quizás nuestro comportamiento hacia la IA no sensible hoy debería estar impulsado por cómo esperaríamos que las personas se comporten con cualquier IA inteligente futura que pueda sentir, que puede sufrir. ¿Cómo esperaríamos que esa futura máquina sensible reaccionara hacia nosotros?

    Ésta puede ser la gran diferencia entre las máquinas y los animales que defiende Singer. Los animales no pueden vengarse. Pero las máquinas sensibles podrían hacerlo.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com