• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Google descarta el uso de inteligencia artificial para armas (Actualización)

    Sundar Pichai, director ejecutivo de Google, dijo que el gigante tecnológico de EE. UU. evitaría cualquier aplicación de inteligencia artificial para armas, ya que reveló un conjunto de principios para las tecnologías

    Google anunció el jueves que no usaría inteligencia artificial para armas o para "causar o facilitar directamente lesiones a personas, "ya que reveló un conjunto de principios para las tecnologías.

    Director ejecutivo Sundar Pichai, en una publicación de blog que describe las políticas de inteligencia artificial de la empresa, señaló que aunque Google no usará IA para armas, "Continuaremos nuestro trabajo con los gobiernos y las fuerzas armadas en muchas otras áreas" como la ciberseguridad, capacitación, o búsqueda y rescate.

    La noticia llega con Google enfrentándose a un alboroto de empleados y otras personas por un contrato con el ejército de EE. UU. que el gigante tecnológico de California dijo la semana pasada que no se renovaría.

    Pichai estableció siete principios para la aplicación de la inteligencia artificial por parte de Google, o computación avanzada que puede simular el comportamiento humano inteligente.

    Dijo que Google está utilizando IA "para ayudar a las personas a abordar problemas urgentes" como la predicción de incendios forestales, ayudando a los agricultores, diagnosticar enfermedades o prevenir la ceguera.

    "Reconocemos que una tecnología tan poderosa plantea preguntas igualmente poderosas sobre su uso, Pichai dijo en el blog.

    "La forma en que se desarrolle y utilice la IA tendrá un impacto significativo en la sociedad durante muchos años. Como líder en IA, sentimos una profunda responsabilidad de hacer esto bien ".

    El director ejecutivo dijo que los programas de inteligencia artificial de Google se diseñarían para aplicaciones que sean "socialmente beneficiosas" y "eviten crear o reforzar prejuicios injustos".

    Dijo que los principios también exigían que las aplicaciones de inteligencia artificial se "construyeran y probaran para garantizar la seguridad, "ser" responsable ante las personas "e" incorporar principios de diseño de privacidad ".

    Google evitará el uso de cualquier tecnología "que cause o pueda causar un daño general, ", Escribió Pichai.

    Eso significa mantenerse alejado de "armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente daños a las personas" y sistemas "que recopilan o utilizan información para la vigilancia violando las normas aceptadas internacionalmente".

    Google también prohibirá el uso de cualquier tecnología "cuyo propósito contravenga los principios ampliamente aceptados del derecho internacional y los derechos humanos, "Dijo Pichai.

    'Un buen comienzo'

    Alguna reacción inicial al anuncio fue positiva.

    La Fundación Frontera Electrónica, que había provocado la oposición al contrato del Proyecto Maven de Google con el Pentágono, calificó la noticia como "una gran victoria para los principios éticos de la IA".

    "Felicitaciones a los empleados de Google y a otras personas que han trabajado arduamente para persuadir a la empresa de que cancele su trabajo en Project Maven, ", Dijo EFF en Twitter.

    Ryan Calo, profesor de derecho de la Universidad de Washington y miembro del Stanford Center for Internet &Society, tuiteó, "Los principios éticos de la IA de Google se deben más al (filósofo inglés Jeremy) Bentham y a los positivistas que al (filósofo alemán) Kant. Sin embargo, un buen comienzo."

    Calo agregado, "La declaración clara de que no facilitarán la violencia o la vigilancia totalitaria es significativa".

    La medida se produce en medio de la creciente preocupación de que los sistemas automatizados o robóticos puedan ser mal utilizados y salirse de control. conduciendo al caos. Al mismo tiempo, Google ha enfrentado críticas por haberse alejado del lema original de sus fundadores de "no seas malvado".

    Varias empresas de tecnología ya han aceptado los principios generales del uso de la inteligencia artificial para siempre, pero Google pareció ofrecer un conjunto de estándares más preciso.

    La empresa, que ya es miembro de la Asociación sobre Inteligencia Artificial, que incluye a decenas de empresas tecnológicas comprometidas con los principios de la IA, había enfrentado críticas por el contrato con el Pentágono en el Proyecto Maven, que utiliza el aprendizaje automático y el talento de la ingeniería para distinguir personas y objetos en videos de drones.

    Ante una petición firmada por miles de empleados y críticas ajenas a la empresa, Google indicó que el contrato de $ 10 millones no se renovaría, según informes de los medios.

    Pero se cree que Google está compitiendo contra otros gigantes tecnológicos como Amazon y Microsoft por lucrativos contratos de "computación en la nube" con el gobierno de EE. UU. incluso para agencias militares y de inteligencia.

    © 2018 AFP




    © Ciencia https://es.scienceaq.com