Crédito:inteligencia-artificial-503593_1920 / flickr
La histeria sobre el futuro de la inteligencia artificial (IA) está en todas partes. Parece que no hay escasez de noticias sensacionalistas sobre cómo la IA podría curar enfermedades, acelerar la innovación humana y mejorar la creatividad humana. Solo mirando los titulares de los medios, podría pensar que ya vivimos en un futuro en el que la IA se ha infiltrado en todos los aspectos de la sociedad.
Si bien es innegable que la IA ha abierto una gran cantidad de oportunidades prometedoras, también ha llevado al surgimiento de una mentalidad que puede describirse mejor como "solucionismo de IA". Esta es la filosofía que, dados suficientes datos, Los algoritmos de aprendizaje automático pueden resolver todos los problemas de la humanidad.
Pero hay un gran problema con esta idea. En lugar de apoyar el progreso de la IA, en realidad, pone en peligro el valor de la inteligencia de las máquinas al ignorar importantes principios de seguridad de la IA y al establecer expectativas poco realistas sobre lo que la IA realmente puede hacer por la humanidad.
Solucionismo de la IA
En solo unos años, El solucionismo de la IA se ha abierto camino desde las bocas de los evangelistas de la tecnología en Silicon Valley hasta las mentes de los funcionarios gubernamentales y los legisladores de todo el mundo. El péndulo ha pasado de la noción distópica de que la IA destruirá a la humanidad a la creencia utópica de que nuestro salvador algorítmico está aquí.
Ahora vemos que los gobiernos prometen apoyo a las iniciativas nacionales de inteligencia artificial y compiten en una carrera armamentista tecnológica y retórica para dominar el floreciente sector del aprendizaje automático. Por ejemplo, el gobierno del Reino Unido se ha comprometido a invertir 300 millones de libras esterlinas en investigación de IA para posicionarse como líder en el campo. Enamorados del potencial transformador de la IA, el presidente francés Emmanuel Macron se comprometió a convertir Francia en un centro global de inteligencia artificial. Mientras tanto, el gobierno chino está aumentando su destreza en inteligencia artificial con un plan nacional para crear una industria de inteligencia artificial china por valor de 150 mil millones de dólares para 2030. El solucionismo de la inteligencia artificial está en aumento y está aquí para quedarse.
Redes neuronales:es más fácil decirlo que hacerlo
Si bien muchos manifiestos políticos promocionan los efectos transformadores de la inminente "revolución de la IA", tienden a subestimar la complejidad en torno a la implementación de sistemas avanzados de aprendizaje automático en el mundo real.
Una de las variedades más prometedoras de tecnologías de IA son las redes neuronales. Esta forma de aprendizaje automático se modela vagamente a partir de la estructura neuronal del cerebro humano, pero en una escala mucho más pequeña. Muchos productos basados en IA utilizan redes neuronales para inferir patrones y reglas a partir de grandes volúmenes de datos. Pero lo que muchos políticos no entienden es que simplemente agregar una red neuronal a un problema no significará automáticamente que encontrará una solución. Similar, Agregar una red neuronal a una democracia no significa que será instantáneamente más inclusiva, justo o personalizado.
Desafiando la burocracia de datos
Los sistemas de IA necesitan una gran cantidad de datos para funcionar, pero el sector público generalmente no tiene la infraestructura de datos adecuada para respaldar el aprendizaje automático avanzado. La mayoría de los datos permanecen almacenados en archivos sin conexión. Las pocas fuentes de datos digitalizadas que existen tienden a estar enterradas en la burocracia. Más a menudo que no, los datos se distribuyen en diferentes departamentos gubernamentales y cada uno de ellos requiere permisos especiales para acceder. Sobre todo, Por lo general, el sector público carece del talento humano con las capacidades tecnológicas adecuadas para aprovechar plenamente los beneficios de la inteligencia artificial.
Por estas razones, el sensacionalismo sobre la IA ha atraído a muchos críticos. Stuart Russell, profesor de informática en Berkeley, ha defendido durante mucho tiempo un enfoque más realista que se centra en aplicaciones simples de la IA en el día a día en lugar de la hipotética adquisición por parte de robots superinteligentes. Similar, Profesor de robótica del MIT, Rodney Brooks, escribe que "casi todas las innovaciones en robótica e IA llevan lejos, lejos, más tiempo de lo que la gente en el campo y fuera del campo imagina para ser desplegado realmente ampliamente ".
Una de las muchas dificultades en la implementación de sistemas de aprendizaje automático es que la IA es extremadamente susceptible a los ataques adversarios. Esto significa que una IA maliciosa puede apuntar a otra IA para obligarla a hacer predicciones incorrectas o comportarse de cierta manera. Muchos investigadores han advertido contra el despliegue de la IA sin los estándares de seguridad y los mecanismos de defensa adecuados. Todavía, La seguridad de la IA sigue siendo un tema que a menudo se pasa por alto.
El aprendizaje automático no es mágico
Si queremos cosechar los beneficios y minimizar los daños potenciales de la IA, debemos comenzar a pensar en cómo el aprendizaje automático se puede aplicar de manera significativa a áreas específicas del gobierno, empresa y sociedad. Esto significa que necesitamos tener una discusión sobre la ética de la IA y la desconfianza que muchas personas tienen hacia el aprendizaje automático.
Más importante, debemos ser conscientes de las limitaciones de la IA y de dónde los humanos aún deben tomar la iniciativa. En lugar de pintar una imagen poco realista del poder de la IA, Es importante dar un paso atrás y separar las capacidades tecnológicas reales de la IA de la magia.
Por mucho tiempo, Facebook creía que problemas como la difusión de información errónea y el discurso del odio podrían identificarse y detenerse algorítmicamente. Pero bajo la reciente presión de los legisladores, la empresa se comprometió rápidamente a reemplazar sus algoritmos con un ejército de más de 10, 000 revisores humanos.
La profesión médica también ha reconocido que la IA no puede considerarse una solución para todos los problemas. El programa IBM Watson for Oncology fue una pieza de inteligencia artificial destinada a ayudar a los médicos a tratar el cáncer. Aunque fue desarrollado para ofrecer las mejores recomendaciones, a los expertos humanos les resultó difícil confiar en la máquina. Como resultado, el programa de IA se abandonó en la mayoría de los hospitales donde se probó.
Surgieron problemas similares en el ámbito legal cuando se utilizaron algoritmos en los tribunales de EE. UU. Para condenar a los delincuentes. Un algoritmo calculó los puntajes de evaluación de riesgos y asesoró a los jueces sobre la sentencia. Se descubrió que el sistema amplificaba la discriminación racial estructural y luego fue abandonado.
Estos ejemplos demuestran que no existe una solución de IA para todo. Es posible que el uso de la IA simplemente por el bien de la IA no siempre sea productivo o útil. No todos los problemas se resuelven mejor aplicándoles inteligencia artificial. Esta es la lección crucial para todos los que buscan impulsar las inversiones en programas nacionales de inteligencia artificial:todas las soluciones tienen un costo y no todo lo que se puede automatizar debería serlo.
Este artículo se publicó originalmente en The Conversation. Lea el artículo original.