Crédito:Foto de Phonlamai / Shutterstock
, ¿Deberíamos tenerle miedo a la inteligencia artificial? Para mi, esta es una pregunta simple con una aún más simple, respuesta de dos letras:no. Pero no todo el mundo está de acuerdo, mucha gente, incluido el fallecido físico Stephen Hawking, han expresado su preocupación de que el surgimiento de poderosos sistemas de inteligencia artificial podría significar el fin de la humanidad.
Claramente, su opinión sobre si la IA se apoderará del mundo dependerá de si cree que puede desarrollar un comportamiento inteligente que supere al de los humanos, algo que se denomina "superinteligencia". Echemos un vistazo a la probabilidad de que esto ocurra, y por qué existe tanta preocupación por el futuro de la IA.
Los humanos tienden a tener miedo de lo que no comprenden. A menudo se culpa al miedo por el racismo, homofobia y otras fuentes de discriminación. Por lo tanto, no es de extrañar que también se aplique a las nuevas tecnologías:a menudo están rodeadas de cierto misterio. Algunos logros tecnológicos parecen casi irreales, superando claramente las expectativas y en algunos casos el desempeño humano.
No hay fantasmas en la maquina
Pero desmitifiquemos las técnicas de IA más populares, conocido colectivamente como "aprendizaje automático". Estos permiten que una máquina aprenda una tarea sin ser programada con instrucciones explícitas. Esto puede sonar espeluznante, pero la verdad es que todo se debe a algunas estadísticas bastante mundanas.
La máquina, que es un programa, o más bien un algoritmo, está diseñado con la capacidad de descubrir relaciones dentro de los datos proporcionados. Hay muchos métodos diferentes que nos permiten lograrlo. Por ejemplo, podemos presentar a la máquina imágenes de letras escritas a mano (a-z), uno a uno, y pedirle que nos diga qué letra mostramos cada vez en secuencia. Ya hemos proporcionado las posibles respuestas; solo puede ser una de (a-z). La máquina al principio dice una letra al azar y la corregimos, proporcionando la respuesta correcta. También hemos programado la máquina para que se reconfigure a sí misma para que la próxima vez, si se presenta con la misma letra, es más probable que nos dé la respuesta correcta para la siguiente. Como consecuencia, la máquina con el tiempo mejora su rendimiento y "aprende" a reconocer el alfabeto.
En esencia, hemos programado la máquina para explotar relaciones comunes en los datos con el fin de lograr la tarea específica. Por ejemplo, todas las versiones de "a" tienen un aspecto estructuralmente similar, pero diferente a "b", y el algoritmo puede aprovechar esto. Curiosamente, después de la fase de entrenamiento, la máquina puede aplicar los conocimientos obtenidos en nuevas muestras de letras, por ejemplo, escrito por una persona cuya letra la máquina nunca ha visto antes.
Humanos sin embargo, son buenos para leer. Quizás un ejemplo más interesante es el reproductor Go artificial de Google Deepmind, que ha superado a todos los jugadores humanos en su desempeño del juego. Claramente aprende de una manera diferente a los humanos, jugando una serie de juegos consigo mismo que ningún humano podría jugar en su vida. Se le ha dado instrucciones específicas para ganar y se le ha dicho que las acciones que realiza determinan si gana o no. También se le han dicho las reglas del juego. Al jugar el juego una y otra vez, puede descubrir en cada situación cuál es la mejor acción:inventar movimientos que ningún ser humano ha jugado antes.
Niños pequeños versus robots
¿Eso hace que el jugador de AI Go sea más inteligente que un humano? Ciertamente no. La IA está muy especializada en un tipo particular de tareas y no muestra la versatilidad que tienen los humanos. Los seres humanos desarrollan una comprensión del mundo a lo largo de los años que ninguna IA ha logrado o parece probable que logre en el corto plazo.
El hecho de que la IA sea denominada "inteligente" se debe en última instancia al hecho de que puede aprender. Pero incluso cuando se trata de aprender, no es rival para los humanos. De hecho, los niños pequeños pueden aprender con solo ver a alguien resolver un problema una vez. Una IA por otra parte, necesita toneladas de datos y muchos intentos para tener éxito. Pero mientras los humanos desarrollan una inteligencia impresionante rápidamente en los primeros años de vida, los conceptos clave detrás del aprendizaje automático no son tan diferentes de lo que eran hace una o dos décadas.
El éxito de la IA moderna se debe menos a un gran avance en nuevas técnicas y más a la gran cantidad de datos y potencia computacional disponibles. En tono rimbombante, aunque, incluso una cantidad infinita de datos no proporcionará a la IA una inteligencia similar a la humana; primero debemos hacer un progreso significativo en el desarrollo de técnicas de "inteligencia general" artificial. Algunos enfoques para hacer esto implican la construcción de un modelo informático del cerebro humano, que ni siquiera estamos cerca de lograr.
Por último, solo porque una IA puede aprender, en realidad no se sigue que de repente aprenda todos los aspectos de la inteligencia humana y nos engañe. No existe una definición simple de lo que es la inteligencia humana y ciertamente tenemos poca idea de cómo se representa exactamente en el cerebro. Pero incluso si pudiéramos resolverlo y luego crear una IA que pudiera aprender a ser más inteligente, eso no significa necesariamente que tenga más éxito.
Personalmente, Me preocupa más cómo los humanos usan la IA. Los algoritmos de aprendizaje automático a menudo se consideran cajas negras, y se hace menos esfuerzo para identificar los detalles de la solución que han encontrado nuestros algoritmos. Este es un aspecto importante y con frecuencia descuidado, ya que a menudo estamos obsesionados con el desempeño y menos con la comprensión. Es importante comprender las soluciones que estos sistemas han descubierto, porque también podemos evaluar si son soluciones correctas o deseables.
Si, por ejemplo, entrenamos nuestro sistema de manera incorrecta, también podemos terminar con una máquina que ha aprendido relaciones que no se sostienen en general. Digamos, por ejemplo, que queremos diseñar una máquina para evaluar la capacidad de los estudiantes potenciales de ingeniería. Probablemente una idea terrible pero sigamos hasta el final para la sacudida del argumento. Tradicionalmente, esta es una disciplina dominada por hombres, lo que significa que es probable que las muestras de formación procedan de estudiantes varones anteriores. Si no nos aseguramos por ejemplo, que los datos de entrenamiento estén equilibrados, la máquina podría terminar con la conclusión de que los estudiantes de ingeniería son hombres, y aplicarlo incorrectamente a decisiones futuras.
Machine learning and artificial intelligence are tools. They can be used in a right or a wrong way, like everything else. It is the way that they are used that should concerns us, not the methods themselves. Human greed and human unintelligence scare me far more than artificial intelligence.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.