• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • ¿La inteligencia artificial merece las mismas protecciones éticas que damos a los animales?

    Crédito:CC0 Public Domain

    En el programa de HBO Westworld , robots diseñados para mostrar emociones, sentir dolor, y muere como los humanos pueblan un extenso parque temático de estilo occidental para huéspedes adinerados que pagan para hacer realidad sus fantasías. A medida que avanza el espectáculo, y los robots aprenden más sobre el mundo en el que viven, comienzan a darse cuenta de que son los juguetes de la persona que los programó.

    Los espectadores podrían llegar a la conclusión de que los seres humanos necesitan permitirse robots con una inteligencia artificial tan sofisticada, como los de Westworld —Las mismas protecciones éticas que nos brindamos unos a otros. Pero Westworld es un programa de televisión de ficción. Y los robots con la sofisticación cognitiva de los humanos no existen.

    Sin embargo, los avances en inteligencia artificial por parte de universidades y empresas de tecnología significan que estamos más cerca que nunca de crear máquinas que sean "aproximadamente tan cognitivamente sofisticadas como ratones o perros". "dice John Basl, quien es profesor asistente de filosofía en Northeastern University. Argumenta que estas máquinas merecen las mismas protecciones éticas que brindamos a los animales involucrados en la investigación.

    "El escenario de pesadilla es que creamos una mente de máquina, y sin saberlo, hazle algo que sea doloroso, "Dice Basl." Creamos un ser consciente y luego lo hacemos sufrir ".

    Los comités de cuidado y uso de animales examinan cuidadosamente la investigación científica para asegurarse de que los animales no sufran indebidamente. y los estándares son aún más altos para la investigación que involucra células madre humanas, Basl dice.

    A medida que los científicos e ingenieros se acercan a la creación de máquinas con inteligencia artificial que sean conscientes, la comunidad científica necesita construir un marco similar para proteger estas máquinas inteligentes del sufrimiento y el dolor, también, Dice Basl.

    "Por lo general, esperamos hasta que tengamos una catástrofe ética, y luego cree reglas para evitar que vuelva a suceder, "Dice Basl." Estamos diciendo que tenemos que empezar a pensar en esto ahora, antes de que tengamos una catástrofe ".

    Basl y su colega de la Universidad de California, Orilla, proponer la creación de comités de supervisión, compuestos por científicos cognitivos, diseñadores de inteligencia artificial, filósofos y especialistas en ética:para evaluar cuidadosamente la investigación que involucra inteligencia artificial. Y dicen que es probable que tales comités juzguen permisibles todas las investigaciones actuales sobre inteligencia artificial.

    Pero una pregunta filosófica está en el corazón de todo esto:¿Cómo sabremos cuando hemos creado una máquina capaz de experimentar alegría y sufrimiento? especialmente si esa máquina no puede comunicarnos esos sentimientos?

    No hay una respuesta fácil a esta pregunta. Basl dice:en parte porque los científicos no se ponen de acuerdo sobre lo que realmente es la conciencia.

    Algunas personas tienen una visión "liberal" de la conciencia, Dice Basl. Creen que todo lo que se requiere para que exista la conciencia es "procesamiento de información bien organizado, "y un medio para prestar atención y planificar a largo plazo. Las personas que tienen puntos de vista más" conservadores ", él dice, requieren que los robots tengan características biológicas específicas, como un cerebro similar al de un mamífero.

    En este punto, Basl dice:no está claro qué vista podría resultar correcta, o si hay otra forma de definir la conciencia que aún no hemos considerado. Pero, si usamos la definición más liberal de conciencia, Los científicos pronto podrán crear máquinas inteligentes que puedan sentir dolor y sufrimiento, y que merecen protecciones éticas, Dice Basl.

    "Podríamos estar muy lejos de crear una IA consciente, O podríamos estar cerca "Dice Basl." Deberíamos estar preparados en caso de que estemos cerca ".


    © Ciencia https://es.scienceaq.com