• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • ¿Real o artificial? Los titanes de la tecnología declaran preocupaciones sobre la ética de la IA

    En este 5 de enero, 2019, Foto de archivo La gente se para frente a la carpa de Google durante los preparativos para CES International en Las Vegas. Los empleados de Google han tenido más éxito que otros trabajadores tecnológicos al exigir cambios en la empresa. Google canceló un contrato con el Pentágono después de que los empleados rechazaran las implicaciones éticas del uso de la tecnología de la empresa para analizar videos de drones. (Foto AP / John Locher, Expediente)

    Las mayores empresas de tecnología quieren que sepa que están poniendo especial cuidado en garantizar que su uso de la inteligencia artificial para examinar montañas de datos, Analizar rostros o crear asistentes virtuales no se extiende al lado oscuro.

    Pero sus esfuerzos por mitigar las preocupaciones de que sus máquinas puedan usarse para fines nefastos no han sido aceptados universalmente. Algunos escépticos lo ven como un mero escaparate de corporaciones más interesadas en las ganancias que en los mejores intereses de la sociedad.

    "IA ética" se ha convertido en una nueva frase de moda corporativa, abofeteados en los comités de revisión internos, títulos de trabajo elegantes, proyectos de investigación e iniciativas filantrópicas. Los movimientos están destinados a abordar las preocupaciones sobre los prejuicios raciales y de género que surgen en el reconocimiento facial y otros sistemas de inteligencia artificial. así como abordar las ansiedades acerca de la pérdida de puestos de trabajo debido a la tecnología y su uso por parte de las fuerzas del orden y las fuerzas armadas.

    Pero, ¿cuánta sustancia hay detrás de las campañas de ética cada vez más públicas? ¿Y quién decide qué actividades tecnológicas no hacen daño?

    Google recibió ambas preguntas cuando formó una nueva junta de asesores externos a fines de marzo para ayudar a guiar cómo usa la inteligencia artificial en los productos. Pero en lugar de ganarse a posibles críticos, desató el rencor interno. Un poco más de una semana después, Google cedió a la presión de la reacción y disolvió el consejo.

    El tablero exterior se vino abajo por etapas. Uno de los ocho miembros inaugurales de la junta renunció a los pocos días y otro rápidamente se convirtió en el blanco de las protestas de los empleados de Google, quienes dijeron que sus puntos de vista conservadores no se alinean con los valores profesados ​​por la compañía.

    Mientras miles de empleados pidieron la destitución de la presidenta de la Fundación Heritage, Kay Coles James, Google disolvió el tablero la semana pasada.

    "Está claro que en el entorno actual, (el consejo) no puede funcionar como queríamos, ", dijo la empresa en un comunicado.

    Ese entorno es uno de cada vez más preocupante porque las campañas corporativas de ética de la inteligencia artificial carecen de fuerza.

    "Creo que (la decisión de Google) refleja un entendimiento público más amplio de que la ética implica más que simplemente crear una junta de ética sin un marco institucional que garantice la rendición de cuentas, ", Dijo el investigador de inteligencia artificial Ben Wagner.

    La iniciativa original de Google cayó en una tendencia de la industria tecnológica que Wagner llama "lavado de ética, "que describe como un esfuerzo superficial que es principalmente un espectáculo para el público o los legisladores.

    "Es básicamente un intento de fingir que estás haciendo cosas éticas y que usas la ética como una herramienta para llegar a un fin, como evitar la regulación, "dijo Wagner, profesor asistente en la Universidad de Economía y Empresa de Viena. "Es una nueva forma de autorregulación sin llamarla así por su nombre".

    Las grandes empresas han hecho un esfuerzo cada vez más visible para discutir sus esfuerzos de IA en los últimos años.

    Microsoft, que a menudo intenta posicionarse como líder de la industria en cuestiones de ética y privacidad, publicó sus principios sobre el desarrollo de la IA, publicó un libro corto que discutió las implicaciones sociales de la tecnología y pidió alguna regulación gubernamental de las tecnologías de IA.

    El presidente de la compañía incluso se reunió con el Papa Francisco a principios de este año para discutir la ética de la industria. Amazon anunció recientemente que está ayudando a financiar la investigación federal sobre "equidad algorítmica, "y Salesforce emplea un" arquitecto "para la práctica ética de la IA, así como un oficial de "uso ético y humano". Es difícil encontrar una empresa de tecnología de marca sin iniciativas similares.

    En este 21 de mayo 2018, foto de archivo del secretario de Estado Mike Pompeo, izquierda, acompañado por la presidenta de la Fundación Heritage, Kay Coles James, habla en la Heritage Foundation, un think tank conservador de políticas públicas, en Washington. Los empleados de Google han tenido más éxito que otros trabajadores tecnológicos al exigir cambios en la empresa. Google canceló un contrato con el Pentágono después de que los empleados rechazaran las implicaciones éticas del uso de la tecnología de la empresa para analizar videos de drones. Y después de más de 2, 400 empleados de Google firmaron una petición pidiendo que James fuera retirado de la junta. Google eliminó el tablero por completo. (Foto AP / J. Scott Applewhite, Expediente)

    Es bueno que las empresas estén estudiando el tema y buscando perspectivas sobre la ética de la industria, dijo Oren Etzioni, CEO del Instituto Allen de Inteligencia Artificial, una organización de investigación. Pero ultimamente, él dijo, El CEO de una empresa tiene la tarea de decidir qué sugerencias sobre la ética de la IA incorporar en las decisiones comerciales.

    "Creo que, en general, es un paso positivo en lugar de una hoja de parra, "dijo". Dicho eso, la prueba está en una implementación exitosa. Creo que el jurado aún está deliberando sobre eso ".

    El impacto que la inteligencia artificial puede tener en la sociedad nunca ha sido más claro, Etzioni dijo:y las empresas están reaccionando a los estudios sobre el poder de los algoritmos de recomendación y el sesgo de género en la IA.

    Pero como muestra el intento de Google, discutir los problemas a la vista del público también invita al escrutinio público.

    Los empleados de Google han tenido más éxito que otros trabajadores tecnológicos al exigir cambios en su empresa. El gigante de las búsquedas en Internet abandonó un contrato con el Pentágono después de que los empleados rechazaran las implicaciones éticas del uso de la tecnología de inteligencia artificial de la compañía para analizar videos de drones.

    Y después de más de 2, 400 empleados de Google firmaron una petición pidiendo que James fuera retirado de la junta. Google eliminó el tablero por completo. Los empleados dijeron que James había hecho comentarios anteriores que eran anti-trans y anti-inmigrantes y que no deberían estar en un panel de ética. La Fundación Heritage no respondió a una solicitud de comentarios.

    Google también se había enfrentado a la disidencia de sus concejales elegidos. Alessandro Acquisti, profesor de la Universidad Carnegie Mellon, anunciando en Twitter que rechazaba la invitación. Escribió que se dedica a luchar por la equidad y la inclusión en la IA, pero este no era el "foro adecuado para que yo participara en este importante trabajo". Él rechazó a hacer más comentarios.

    Una experta que se había comprometido a permanecer en el consejo es Joanna Bryson, profesor asociado de informática en la Universidad de Bath. Un liberal que se describe a sí mismo, dijo antes de la disolución que tiene sentido tener diversidad política en el panel, y ella no estaba de acuerdo con aquellos que piensan que es solo para lucirse.

    "No creo que Google sea tan estúpido, "Dijo Bryson." No creo que estén allí solo para tener un cartel en la pared ".

    Ella dijo, sin embargo, que empresas como Google y Microsoft están realmente preocupadas por la responsabilidad, lo que significa que quieren asegurarse de mostrarse, y el publico, que han hecho todo lo posible para crear productos de la manera correcta antes de lanzarlos.

    "No es solo lo correcto, es lo que necesitan hacer Bryson dijo que tenía la esperanza de que Google realmente quisiera hacer una lluvia de ideas sobre problemas difíciles y debería encontrar otra manera de hacerlo después de que el consejo se disolviera.

    No está claro qué hará Google a continuación. La compañía dijo que está "volviendo a la mesa de dibujo" y que encontrará otras formas de obtener opiniones externas.

    Wagner dijo que ahora sería el momento de que Google establezca principios éticos que incluyan compromisos que deben cumplir. supervisión externa y otros puntos de control para hacerlos responsables.

    Incluso si las empresas siguen creando juntas externas para supervisar la responsabilidad de la IA, seguirá siendo necesaria la regulación gubernamental, dijo Liz O'Sullivan, un trabajador de tecnología que dejó la compañía de inteligencia artificial Clarifai por el trabajo de la compañía en el Proyecto Maven del Pentágono, el mismo proyecto que Google abandonó después de que sus empleados protestaron.

    O'Sullivan desconfía de las juntas directivas que pueden hacer sugerencias que las empresas no tienen la obligación legal de cumplir.

    "Todas las empresas de ese tamaño que afirman estar interesadas en tener algún tipo de supervisión que no tiene la capacidad o autoridad para restringir o restringir el comportamiento de la empresa, parece que lo están haciendo para la prensa de todos. " ella dijo.

    © 2019 The Associated Press. Reservados todos los derechos.




    © Ciencia https://es.scienceaq.com