Crédito:CC0 Public Domain
Los científicos han propuesto un nuevo marco internacional para mantener la ética y el bienestar humano a la vanguardia de nuestra relación con la tecnología.
Desde la terapia génica y las enfermedades predichas por la IA hasta los vehículos autónomos y la impresión en 3D, los avances tecnológicos pueden mejorar la salud, liberar tiempo, y aumentar la eficiencia.
Sin embargo, a pesar de las mejores intenciones de sus creadores, la tecnología podría tener consecuencias no deseadas para la privacidad y la autonomía individuales.
Actualmente no existe una regulación acordada internacionalmente sobre quién, por ejemplo, tiene acceso a los datos registrados por cajas negras en automóviles, televisores inteligentes y asistentes personales habilitados por voz, y hallazgos recientes han demostrado que la tecnología se puede utilizar para influir en el comportamiento de los votantes.
Ahora, Los investigadores del Imperial College de Londres han sugerido un nuevo marco regulatorio con el que los gobiernos pueden minimizar las consecuencias no deseadas de nuestra relación con la tecnología. El comentario se publica en Inteligencia de la máquina de la naturaleza .
El grupo de investigadores, dirigido por el profesor Rafael Calvo de Imperial, dicen que su propuesta podría ayudar a garantizar intereses humanos como la ética, intimidad, y el bienestar se priorizan a medida que crece nuestra relación con la tecnología.
Sugieren utilizar la Evaluación de Impacto Ambiental, que evalúa los posibles impactos ambientales de un proyecto o desarrollo propuesto, como plano. La evaluación consideraría los factores socioeconómicos, impactos culturales y en la salud humana de la IA y la tecnología.
El marco propuesto, conocido como la Evaluación de Impacto Humano para la Tecnología (HIAT), estaría diseñado para predecir y evaluar el impacto que las nuevas tecnologías digitales tienen en la sociedad y el bienestar individual. Esta, ellos discuten, debe centrarse en consideraciones éticas como la privacidad individual, bienestar y autonomía.
La evaluación también debe considerar qué partes son responsables de administrar los datos y mantener los estándares éticos. así como quién es el responsable cuando las cosas salen mal, dicen los investigadores.
Profesor Calvo, de la Escuela de Ingeniería de Diseño Dyson de Imperial, dijo:"Nos enfrentamos a una cuarta revolución industrial a través del rápido desarrollo de la IA y la tecnología, pero a medida que crece nuestra relación con la IA, también lo hace su potencial para alterar nuestras vidas. Llevar, por ejemplo, evidencia de que los seres humanos utilizan la IA para manipular emociones, atención, y comportamientos de voto, así como legal, educativo, y decisiones laborales.
"Ahora es el momento de elaborar un marco para garantizar que nuestra relación con la IA siga siendo positiva".
Acertijos éticos
Un marco HIAT ayudaría a las industrias emergentes a navegar por los acertijos éticos que van de la mano con el uso de IA y el almacenamiento de grandes cantidades de datos.
Según el comentario, Las preguntas que la orientación acordada internacionalmente podría ayudar a responder incluyen:
El profesor Calvo añadió:"Aunque a menudo nos beneficiamos del progreso tecnológico, también podemos sufrir éticamente, costos psicológicos y sociales.
"Las evaluaciones de impacto son una herramienta importante para incorporar ciertos valores y se han utilizado con éxito en muchas industrias, incluida la minería, agricultura, Ingeniería civil, e ingeniería industrial.
"Otros sectores también, como productos farmacéuticos, están acostumbrados a innovar en entornos normativos sólidos, y habría poca confianza en sus productos sin este marco.
"A medida que la IA madura, necesitamos marcos como HIAT para dar a los ciudadanos la confianza de que esta nueva y poderosa tecnología será ampliamente beneficiosa para todos ".