Crédito:Franck V. en Unsplash
A medida que más robots se abren paso en la sociedad, Es importante considerar las implicaciones éticas y morales de hacer que completen tareas que pueden tener un impacto significativo en la vida de las personas. Si los robots y las máquinas se van a utilizar ampliamente en situaciones en las que podrían afectar gravemente a vidas humanas, por ejemplo, conduciendo automóviles o administrando a las personas mayores la medicación que necesitan a diario, los desarrolladores deben considerar primero las implicaciones asociadas.
Teniendo esto en cuenta, Michael Nagenborg, investigador de la Universidad de Twente en los Países Bajos, Recientemente ha realizado un estudio que investiga qué podría pasar si un robot o una máquina comete un error terrible que tiene consecuencias perjudiciales para sus usuarios. Su papel publicado en Springer Link's Tecnología, Antropología, y dimensiones de la responsabilidad diario, explora específicamente la cuestión de si los humanos podrían perdonar a un robot si hace algo mal, desde un punto de vista filosófico.
"La discusión académica sobre ética a menudo se centra en la formulación de estándares morales, si bien se presta poca atención a lo que sucede cuando las personas no cumplen con estos estándares, ", Dijo Nagenborg." Ser capaz de perdonar a alguien, sin embargo, parece ser un aspecto crucial de la existencia humana y está estrechamente relacionado con la forma en que nos hacemos responsables mutuamente de nuestras acciones. Me preguntaba qué papel podría desempeñar el perdón cuando consideramos a los robots como entidades sociales ".
En su reciente estudio, Nagenborg explora una serie de cuestiones éticas complejas relacionadas con la culpa y la responsabilidad en robótica, tales como '¿cómo pueden los usuarios humanos lidiar con el hecho de que un robot cometió un error crucial?' y '¿se puede responsabilizar plenamente a un robot por sus acciones'? En lugar de preguntar si un robot puede o debe ser castigado por sus errores, sin embargo, se centra en si los humanos podrían perdonar a los robots, incluso en los casos en que sus acciones resultaron en daños irreversibles y graves.
"Tomemos un ejemplo dramático:un automóvil autónomo mata a un ser querido, "Explicó Nagenborg." ¿Estaría dispuesto y sería capaz de perdonar el vehículo autónomo? Podría imaginar que podría perdonar a un conductor humano, pero parece más difícil perdonar a una máquina. Quería explorar qué revela este desafío sobre nuestra relación con los robots en el contexto del debate académico sobre su estado moral ".
Muchos estudios de filosofía y ética destacan el perdón como un aspecto crucial de las interacciones entre los seres humanos, ya que puede determinar cómo reaccionan y aprenden a aceptar los errores de los demás. En su papel, Nagenborg asume que el perdón también jugará un papel clave en una sociedad donde conviven humanos y robots. particularmente si estos últimos se asignan a tareas que pueden afectar la vida de otros.
"Por un lado, las dificultades para imaginar lo que podría significar perdonar a un robot, demostrar que debemos tener mucho cuidado al responsabilizar a un robot de sus acciones, ", Dijo Nagenborg." Por otro lado, si somos capaces de empezar a perdonar a las máquinas de una manera honesta y seria, deberíamos ser conscientes del cambio fundamental en la forma en que percibimos a los robots ".
Si bien el artículo de Nagenborg se basa simplemente en especulaciones e ideas filosóficas, abre una ventana a un aspecto importante de las interacciones humano-robot que rara vez se ha explorado antes. Su trabajo podría alentar a otros dentro de la comunidad ética a considerar la noción de perdón en el desarrollo de la robótica y la inteligencia artificial. particularmente una vez que los robots comienzan a ayudar a los humanos en una variedad más amplia de formas. Sobre todo, Nagenborg también espera recordar a los investigadores de robótica la complejidad de las interacciones sociales entre humanos y cómo esta complejidad podría algún día reflejarse también en las interacciones entre humanos y robots.
"Dos de mis proyectos de investigación actuales tratan sobre el uso de big data e inteligencia artificial en el sur global con el propósito de 'mapeo de barrios marginales' y respuestas humanitarias, ", Agregó Nagenborg." Una cuestión clave aquí es la cuestión de cómo podemos explicar y justificar la decisión tomada sobre la base de tales sistemas tecnológicos a las personas que se están mapeando ".
© 2020 Science X Network