• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Si se equivoca en la ética de la IA, se podría aniquilar el progreso técnico

    La IA se puede utilizar para identificar a los posibles autores de delitos violentos y evaluar el riesgo de reincidencia delictiva. Crédito:Max Pixel, licenciado bajo CC0

    Una pistola de agua inteligente que utiliza el reconocimiento facial para identificar sus objetivos está ayudando a resaltar algunos de los problemas emergentes de derechos humanos que rodean la inteligencia artificial (IA), un área de investigación que va en aumento a medida que las nuevas tecnologías se vuelven cada vez más frecuentes en nuestro día a día. vidas.

    "Es muy difícil ser un investigador de IA ahora y no ser consciente de las implicaciones éticas que tienen estos algoritmos, "dijo el profesor Bernd Stahl, director del Centro de Informática y Responsabilidad Social de la Universidad De Montfort en Leicester, REINO UNIDO.

    "Tenemos que comprender mejor no solo lo que pueden hacer estas tecnologías, sino cómo se desarrollarán en la sociedad y en el mundo en general ".

    Lidera un proyecto llamado SHERPA, que está tratando de lidiar con algunos de los problemas éticos que rodean a los sistemas de información inteligentes que utilizan el aprendizaje automático, una forma de IA, y otros algoritmos para analizar grandes conjuntos de datos.

    La pistola de agua inteligente se creó con el objetivo de resaltar cómo los sesgos en los algoritmos pueden conducir a la discriminación y el trato injusto. Construido por un artista para SHERPA, la pistola de agua se puede programar para seleccionar sus objetivos.

    "Nuestro artista ha construido una pistola de agua con un reconocimiento facial para que solo arroje agua a las mujeres o se puede cambiar para reconocer a una sola persona o personas de cierta edad, ", dijo el profesor Stahl." La idea es hacer que la gente piense en lo que puede hacer este tipo de tecnología ".

    Si bien arrojar agua a las personas puede parecer una diversión inofensiva, los problemas son todo lo contrario. La IA ya se utiliza para identificar rostros en las redes sociales. responder a preguntas sobre asistentes domésticos digitales como Alexa y Siri, y sugerir productos para los consumidores cuando compran en línea.

    También se utiliza para ayudar a hacer juicios sobre el riesgo de reincidencia de los delincuentes o incluso a identificar a quienes podrían cometer delitos violentos . Aseguradoras y autoridades fiscales lo están empleando para ayudar a detectar fraudes, Los bancos han recurrido a la inteligencia artificial para ayudar a procesar las solicitudes de préstamos e incluso probado en los puestos de control fronterizos .

    Impactos

    Durante el año pasado, El profesor Stahl y sus colegas han compilado 10 estudios de caso en los que han analizado empíricamente los impactos de estas tecnologías en varios sectores. Estos incluyen el uso de IA en ciudades inteligentes, su uso por parte de la industria de seguros, En educación, cuidado de la salud, agricultura y por gobiernos.

    "Hay algunas cosas de muy alto perfil que atraviesan sectores, como la privacidad, protección de datos y ciberseguridad, ", dijo el profesor Stahl." La inteligencia artificial también está creando nuevos desafíos para el derecho al trabajo si los algoritmos pueden eliminar el trabajo de las personas, o el derecho a elecciones libres si se puede utilizar para inmiscuirse en el proceso democrático como vimos con Cambridge Analytica ".

    Quizás uno de los usos emergentes más polémicos de la IA es la vigilancia policial predictiva, donde los algoritmos se entrenan en conjuntos históricos de datos para seleccionar patrones en el comportamiento y las características del delincuente. Esto luego se puede usar para predecir áreas, grupos o incluso individuos que podrían estar involucrados en delitos en el futuro. Ya se está probando una tecnología similar en algunas partes de los EE. UU. Y el Reino Unido.

    Sesgos

    Pero estos algoritmos también pueden aprender los sesgos que ya existen en los conjuntos de datos. Si una base de datos policial muestra que principalmente jóvenes, los hombres negros son arrestados por cierto delito, puede que no sea un reflejo justo del perfil real del delincuente y, en cambio, refleje el racismo histórico dentro de una fuerza. El uso de la IA que se enseña con este tipo de datos podría exacerbar problemas como el racismo y otras formas de discriminación.

    "La transparencia de estos algoritmos también es un problema, ", dijo el profesor Stahl." Estos algoritmos hacen una clasificación estadística de datos de una manera que hace que sea casi imposible ver exactamente cómo sucedió eso ". Esto plantea preguntas importantes sobre cómo los sistemas legales, por ejemplo, pueden seguir siendo justos y justos si comienzan a confiar en algoritmos de inteligencia artificial opacos de 'caja negra' para informar las decisiones de sentencia o juicios sobre la culpabilidad de una persona.

    El siguiente paso del proyecto será analizar las posibles intervenciones que se pueden utilizar para abordar algunos de estos problemas. Analizará dónde las pautas pueden ayudar a garantizar que los investigadores de IA construyan equidad en sus algoritmos, dónde las nuevas leyes pueden regir su uso y si un regulador puede mantener bajo control los aspectos negativos de la tecnología.

    Pero uno de los problemas que enfrentan muchos gobiernos y reguladores es mantenerse al día con el rápido ritmo de cambio en nuevas tecnologías como la inteligencia artificial. según el profesor Philip Brey, que estudia la filosofía de la tecnología en la Universidad de Twente, en los Paises Bajos.

    "La mayoría de las personas hoy en día no comprenden la tecnología porque es muy compleja, opaco y rápido, ", dijo." Por eso es difícil anticipar y evaluar los impactos en la sociedad, y tener respuestas reglamentarias y legislativas adecuadas al respecto. La política suele estar muy atrasada ".

    El Prof. Brey es coordinador del proyecto SIENNA, que está desarrollando recomendaciones y códigos de conducta para una gama de tecnologías emergentes, incluida la genómica humana, mejora humana, IA y robótica.

    Minería

    "La tecnología de la información tiene, por supuesto, ya ha tenido un gran impacto en la privacidad a través de Internet y los dispositivos móviles que usamos, pero la inteligencia artificial es capaz de combinar diferentes tipos de información y extraerlos de una manera que revela información y conocimientos fundamentalmente nuevos sobre las personas, ", dijo el profesor Brey." Puede hacer esto de una manera muy rápida y eficiente ".

    La tecnología de IA está abriendo la puerta al análisis en tiempo real del comportamiento de las personas, emociones junto con la capacidad de inferir detalles sobre su estado mental o sus intenciones.

    "Eso es algo que antes no era posible, ", dijo el profesor Brey." Entonces, lo que hace con esta información genera nuevos tipos de preocupaciones sobre la privacidad ".

    El equipo de SIENNA está realizando talleres, consultas con expertos y encuestas de opinión pública que tienen como objetivo identificar las preocupaciones de los ciudadanos en 11 países. Ahora se están preparando para elaborar un conjunto de recomendaciones que quienes trabajan con IA y otras tecnologías pueden convertir en estándares que garanticen que las consideraciones éticas y de derechos humanos estén integradas en la etapa de diseño.

    Esta comprensión pública más amplia de cómo es probable que la tecnología los afecte podría ser crucial para la supervivencia de la IA a largo plazo. según el Prof. Stahl.

    "Si no adoptamos la ética correcta, entonces la gente se negará a usarlo y eso aniquilará cualquier progreso técnico, " él dijo.


    © Ciencia https://es.scienceaq.com