• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Para detener un apocalipsis tecnológico, necesitamos la ética y las artes

    ¿Cómo podemos asegurarnos de que las nuevas tecnologías se centren en el bienestar humano? Crédito:Axel Heimken / DPA

    Si los programas de televisión recientes son algo para seguir, estamos un poco preocupados por las consecuencias del desarrollo tecnológico. Abundan las narrativas distópicas.

    Black Mirror proyecta las consecuencias negativas de las redes sociales, mientras que la inteligencia artificial se vuelve pícara en The 100 y Better Than Us. La posible extinción de la raza humana está en juego en Travelers, y Altered Carbon se preocupa por la separación de la conciencia humana del cuerpo. Y los humanos y Westworld ven problemas en el futuro para las relaciones entre humanos y androides.

    Narrativas como estas tienen un largo linaje. La ciencia ficción ha estado articulando nuestras esperanzas y temores sobre la disrupción tecnológica al menos desde Frankenstein de Mary Shelley (1818).

    Sin embargo, a medida que surgen los gustos de los coches sin conductor y los terapeutas robóticos, Algunas preocupaciones anteriormente ficticias ya no son especulaciones imaginativas. En lugar de, representan problemas reales y urgentes.

    ¿Qué futuro queremos?

    El año pasado, El científico jefe de Australia, Alan Finkel, sugirió que en Australia deberíamos convertirnos en "custodios humanos". Esto significaría ser líderes en desarrollo tecnológico, ética, y derechos humanos.

    Finkel no está solo en su preocupación. Pero no será sencillo abordar estos problemas en el desarrollo de nuevas tecnologías.

    Mucha gente en el gobierno La industria y las universidades ahora argumentan que incluir perspectivas de las humanidades y las ciencias sociales será un factor clave.

    Un informe reciente del Australian Council of Learned Academies (ACOLA) reunió a expertos de los campos científico y técnico, así como de las humanidades, artes y ciencias sociales para examinar cuestiones clave que surgen de la inteligencia artificial.

    Según el presidente del directorio de ACOLA, Hugh Bradlow, el informe tiene como objetivo garantizar que "el bienestar de la sociedad" se coloque "en el centro de cualquier desarrollo".

    IA centrada en el ser humano

    Una visión similar impulsa al Instituto de Inteligencia Artificial Centrada en el Hombre de la Universidad de Stanford. El instituto reúne a investigadores de las humanidades, educación, ley, medicamento, negocios y STEM para estudiar y desarrollar tecnologías de IA "centradas en el ser humano". La idea que sustenta su trabajo es que "la IA debe ser colaborativa, aumenta y mejora la productividad humana y la calidad de vida ".

    Mientras tanto, a través del Atlántico, El Instituto del Futuro de la Humanidad de la Universidad de Oxford investiga de manera similar "cuestiones generales" para garantizar "un futuro largo y próspero para la humanidad".

    Se espera que el centro duplique su tamaño el próximo año gracias a una contribución de £ 13,3 millones (A $ 25 millones) del Open Philanthropy Project. El fundador del instituto, filósofo Nick Bostrom dijo:"Hay una carrera de larga distancia entre la capacidad tecnológica de la humanidad, que es como un semental que galopa por los campos, y la sabiduría de la humanidad, que se parece más a un potrillo con piernas inestables ".

    Que construir y por que

    El sector de las tecnologías de la información también está lidiando con los problemas éticos que plantea el rápido avance tecnológico. Brad Smith y Harry Shum de Microsoft escribieron en su libro de 2018 The Future Computed que una de sus "conclusiones más importantes" fue que las humanidades y las ciencias sociales tienen un papel crucial que desempeñar para enfrentar los desafíos planteados por la IA:

    "Idiomas, Arte, historia, ciencias económicas, ética, filosofía, Los cursos de psicología y desarrollo humano pueden enseñar críticas, Habilidades filosóficas y éticas que serán fundamentales en el desarrollo y la gestión de soluciones de IA.

    "Las prácticas de contratación en las empresas de tecnología ya están cambiando. En una charla TED sobre" Por qué la tecnología necesita las humanidades, "Eric Berridge, director ejecutivo de la consultora tecnológica Bluewolf, propiedad de IBM, explica por qué su empresa contrata cada vez más a graduados en humanidades".

    Mientras que las ciencias nos enseñan a construir cosas, son las humanidades las que nos enseñan qué construir y por qué hacerlo.

    Solo 100 de los 1 de Bluewolf, 000 empleados tienen títulos en informática e ingeniería. Incluso el director de tecnología es un estudiante de inglés.

    Educación para un futuro mejor

    Similar, Matt Reaney, el director ejecutivo y fundador de Big Cloud, una empresa de contratación que se especializa en ciencia de datos, aprendizaje automático y empleo en IA:ha argumentado que la tecnología necesita más personas con formación en humanidades. "[Las humanidades] dan contexto al mundo en el que operamos día a día. Habilidades de pensamiento crítico, comprensión más profunda del mundo que nos rodea, filosofía, ética, comunicación, y la creatividad ofrecen diferentes enfoques a los problemas que plantea la tecnología ".

    Reaney propone un "enfoque más combinado" para la educación superior, ofreciendo títulos que combinan las artes y STEM.

    Otro defensor del enfoque interdisciplinario es Joseph Aoun, Presidente de la Northeastern University de Boston. Ha argumentado que en la era de la IA, la educación superior debería centrarse en lo que él llama "humanismo, "equipar a los graduados con tres alfabetizaciones clave:alfabetización tecnológica, alfabetización de datos y alfabetización humana.

    Ha llegado el momento de responder a la convocatoria de licenciados en humanidades capaces de cruzar al mundo de la tecnología para que nuestro futuro humano sea lo más brillante posible.

    Sin formación en ética, derechos humanos y justicia social, las personas que desarrollan las tecnologías que darán forma a nuestro futuro podrían tomar malas decisiones. Y ese futuro podría convertirse en una de las calamidades que ya hemos visto en pantalla.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com