• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Pesadilla de IA de Kubricks, 50 años después

    Crédito:Universidad de Western Ontario

    Mientras David Bowman, el miembro de la tripulación sobreviviente a bordo de la nave espacial Discovery One en 2001:Una odisea del espacio de Stanley Kubrick, desmonta el HAL 9000, la computadora sensible suplica en un sin afecto, voz monótona:

    "Me temo que, Dave ".

    "Dave, mi mente va Puedo sentirlo."

    Como la conciencia de HAL, o más bien, su lógica - se desvanece, muere cantando Daisy Bell, la primera canción 'cantada' por una computadora del mundo real. Con la amenaza eliminada, todo parece estar bien de nuevo.

    Celebrando su 50 aniversario este mes, La obra maestra de Kubrick ha ensombrecido el género desde su estreno. Su influencia se extiende más allá de las representaciones del espacio y los viajes espaciales, tocando más que Star Wars, Alien o Blade Runner.

    Por ejemplo, su efecto en nuestra visión de la inteligencia artificial (IA) es palpable.

    Piense en Alexa de Amazon, OMS, como HAL, escucha todo lo que dices.

    Pero ahora, cinco décadas después, ¿Hemos evolucionado más allá de la pesadilla de un sensible de Kubrick, máquina amenazante? ¿Cómo ha sido nuestro entendimiento de y relación con, ¿AI cambió? ¿Tenemos alguna razón para temer a las máquinas que programamos?

    Para Catherine Stinson, quien recientemente completó una beca postdoctoral en el Rotman Institute of Philosophy de Western, La visión de Kubrick, aunque muy diferente del estado actual de la IA, sigue siendo una amenaza inminente. La amenaza, sin embargo, no es la máquina.

    "La gente pensaba en la IA de forma muy diferente en ese entonces, el peligro era que iba a ser un agente que actuaría de manera diferente a nosotros, con prioridades diferentes a las que tenemos, " ella dijo.

    "Eso es menos preocupante ahora. No serán las interacciones uno a uno (con una máquina sensible) con las que no sepamos cómo lidiar. Va a ser algo en lo que hemos puesto toda nuestra maldad , y ahora está haciendo cosas que son una extensión de los problemas de los humanos, pero a una escala mayor que no podríamos haber imaginado. No es que las máquinas sean diferentes a nosotros, es que están reproduciendo los problemas de los humanos ".

    Parte del problema, Stinson explicó, Los humanos son los que programan la IA. ¿Cómo pueden los humanos programar máquinas éticas? ¿Pueden las máquinas ser éticas? Nos consideramos competentes a la hora de tomar decisiones éticas porque decidimos entre el bien y el mal de forma regular. ella dijo. Confiamos en un instinto que conocemos entre el bien y el mal en las situaciones del día a día.

    "Pero en situaciones más complicadas que surgen, como los autos sin conductor, es realmente difícil, incluso para alguien que tiene formación en ética, para diseñar qué es lo correcto para incorporar, "Señaló Stinson.

    Por ejemplo, en caso de que el automóvil evite chocar contra un peatón, incluso si va a provocar la muerte del conductor? ¿Cómo sopesas las dos vidas diferentes en riesgo? ¿Programa el automóvil para salvar a los ocupantes del vehículo o con quienes podría colisionar?

    "No sé cómo tomar ese tipo de decisión. No sé si esa decisión es algo que la persona promedio sabe cómo tomar. Se necesita un enfoque más cuidadoso y alguien con más experiencia debe participar. Pero es Es difícil ver que existe esa necesidad, porque todos se creen expertos "Añadió Stinson.

    Las personas que toman cursos de ingeniería y tecnología deben recibir capacitación en ética, ella añadió. Salvo que, Las empresas que trabajan en IA podrían beneficiarse de un especialista en ética interno. Las instituciones académicas exigen cada vez más a ingenieros e informáticos que tomen cursos que abordan el tema. Aunque la cuestión de las 'máquinas éticas' es objeto de debate, el simple hecho de que podamos programarlos para que realicen actos correctos o incorrectos los involucra en un "juego ético, "Dijo Stinson.

    "Tal vez podríamos programar una máquina para que haga lo correcto con más frecuencia de lo que lo haríamos. ¿Pero hay motivos para temer? Claro. Hay máquinas que se utilizan en el sistema judicial de los Estados Unidos, tomar decisiones que quizás no sean las correctas. No estamos seguros de cómo están tomando esas decisiones y no hay responsabilidad ante quién es la culpa si toman la decisión incorrecta. "ella anotó.

    Para la sentencia en particular, existen programas de inteligencia artificial que ayudan a los jueces a decidir cuál debe ser la sentencia correcta para alguien condenado por un delito. El algoritmo está diseñado para hacer que la sentencia sea menos sesgada al tomar en cuenta factores del pasado de la persona, en qué tipo de vecindario crecieron, qué tipo de personas conocían, arrestos previos, edad de la primera relación con la policía, etc.

    Todas esas cosas no son piezas de información neutrales, Dijo Stinson. Estos programas de inteligencia artificial han sido criticados por reforzar los estereotipos para los que fueron diseñados.

    "No sabemos cuáles son los peligros. Parte de la preocupación por los peligros es tratar de predecir cuáles podrían ser, y decidir sobre lo que valoramos, y qué tipo de cosas queremos que sucedan, por conveniencia, "Dijo Stinson.

    Tim Blackmore, profesor de la Facultad de Estudios de la Información y los Medios, ha enseñado 2001:A Space Odyssey a estudiantes durante más de una década. Se hizo eco de Stinson, señalar que los peligros de la IA residen en el elemento humano en juego. Para él, cualquier forma que adopte en películas o libros, La IA siempre ha sido una extensión de lo humano.

    "Las máquinas pensantes a menudo son retratadas como conscientes de su propia existencia y conscientes de los problemas existenciales. Son uno de los muchos espejos que los humanos usan para reflejar lo que es ser humano, "Dijo Blackmore.

    Y esa es la pesadilla.

    "Hasta ahora, ha sido una especie de pesadilla de "máquina que gobierna el mundo". Eso surge de la década de 1960 y está muy moldeado por Vietnam, así como la idea de estos mainframes, estas grandes maquinas, eran parte de una cosmovisión que nos estaba convirtiendo en algo inhumano, forma de vida determinista que conduciría a genocidios, " él explicó.

    Pero la amenaza actual no reside en nuestra visión de la IA como una máquina del futuro que puede superarnos o conquistarnos.

    "Nos imaginamos mucho menos a WALL-E, la máquina auxiliar. Pero eso es mucho más. No son las máquinas las que son un problema; son los humanos. La gente hace cosas malas, "Señaló Blackmore, y agregó que está nervioso por las máquinas "auxiliares" que abrazamos ciegamente.

    "Me preocupan estos discos y cilindros o lo que sea Amazon, Google o Facebook quieren meterse en nuestra casa a continuación. La gente quiere esto; es un gadget y es genial porque es muy difícil levantar el teléfono móvil y escribir algo en él o hablar en él. Vamos al abrevadero y chupamos esas cosas y luego tendremos terabytes de datos volando hacia grupos donde podrían eliminarse para todo. Esos datos pueden ser manipulados por agentes de IA que serán cada vez mejores para buscar cómo engañar a los seres humanos. " él continuó.

    "Cómo se desarrollará esta tecnología para que la gente pueda presionar a la gente, eso es lo que tiende a ser una mala noticia para nosotros. El levantamiento de los robots está más abajo en mi lista".


    © Ciencia https://es.scienceaq.com