• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Un nuevo libro coescrito por un filósofo afirma que la IA nunca gobernará el mundo

    Crédito:Universidad de Buffalo

    Elon Musk dijo en 2020 que la inteligencia artificial (IA) dentro de cinco años superaría a la inteligencia humana en su camino para convertirse en "un dictador inmortal" sobre la humanidad. Pero un nuevo libro coescrito por un profesor de filosofía de la Universidad de Buffalo argumenta que eso no sucederá, ni para 2025, ni nunca.

    Barry Smith, Ph.D., Profesor Distinguido de SUNY en el Departamento de Filosofía de la Facultad de Artes y Ciencias de la UB, y Jobst Landgrebe, Ph.D., fundador de Cognotekt, una empresa alemana de inteligencia artificial, son coautores de "Por qué las máquinas Nunca gobiernes el mundo:inteligencia artificial sin miedo".

    Su libro presenta un poderoso argumento contra la posibilidad de diseñar máquinas que puedan superar la inteligencia humana.

    El aprendizaje automático y todas las demás aplicaciones de software de trabajo, los orgullosos logros de los involucrados en la investigación de IA, están para Smith y Landgrebe lejos de cualquier cosa que se parezca a la capacidad de los humanos. Además, argumentan que cualquier progreso incremental que se esté desarrollando en el campo de la investigación de la IA, en términos prácticos, no lo acercará a la posibilidad de pleno funcionamiento del cerebro humano.

    Smith y Landgrebe ofrecen un examen crítico de las proyecciones injustificables de la IA, como máquinas que se separan de la humanidad, se autorreplican y se convierten en "agentes éticos completos". No puede haber una voluntad de máquina, dicen. Cada aplicación de IA se basa en las intenciones de los seres humanos, incluidas las intenciones de producir resultados aleatorios.

    Esto significa que la Singularidad, un punto en el que la IA se vuelve incontrolable e irreversible (como un momento Skynet de la franquicia de películas "Terminator"), no ocurrirá. Las afirmaciones salvajes de lo contrario solo sirven para inflar el potencial de la IA y distorsionar la comprensión pública de la naturaleza, las posibilidades y los límites de la tecnología.

    Traspasando las fronteras de varias disciplinas científicas, Smith y Landgrebe argumentan que la idea de una inteligencia artificial general (AGI, por sus siglas en inglés), la capacidad de las computadoras para emular e ir más allá de la inteligencia general de los humanos, se basa en imposibilidades matemáticas fundamentales que son análogas en la física. a la imposibilidad de construir una máquina de movimiento perpetuo. La IA que igualaría la inteligencia general de los humanos es imposible debido a los límites matemáticos de lo que se puede modelar y es "computable". Estos límites son aceptados por prácticamente todos los que trabajan en el campo; sin embargo, hasta ahora no han podido apreciar las consecuencias de lo que puede lograr una IA.

    “Superar estas barreras requeriría una revolución en las matemáticas que sería de mayor importancia que la invención del cálculo por parte de Newton y Leibniz hace más de 350 años”, dice Smith, uno de los filósofos contemporáneos más citados del mundo. "No estamos conteniendo la respiración".

    Landgrebe señala que, "Como puede verificarse al hablar con matemáticos y físicos que trabajan en los límites de sus respectivas disciplinas, no hay nada en el horizonte que sugiera que una revolución de este tipo podría algún día ser alcanzable. Las matemáticas no pueden modelar los comportamientos de sistemas complejos como el organismo humano", dice.

    AI tiene muchas historias de éxito muy impresionantes, y se ha dedicado una cantidad considerable de fondos para avanzar en su frontera más allá de los logros en campos estrechos y bien definidos, como la traducción de texto y el reconocimiento de imágenes. Gran parte de la inversión para impulsar la tecnología hacia áreas que requieren la contraparte mecánica de la inteligencia general puede, dicen los autores, ser dinero que se desperdicia.

    "El generador de texto GPT-3 ha demostrado ser capaz de producir diferentes tipos de resultados convincentes en muchos campos divergentes", dice Smith. "Desafortunadamente, sus usuarios pronto reconocen que mezclados con estos resultados también hay errores vergonzosos, por lo que los resultados convincentes comenzaron a parecer nada más que ingeniosos trucos de salón".

    El papel de la IA en la secuenciación del genoma humano generó sugerencias sobre cómo podría ayudar a encontrar curas para muchas enfermedades humanas; sin embargo, después de 20 años de investigación adicional (en la que han participado tanto Smith como Landgrebe), poco se ha producido para respaldar un optimismo de este tipo.

    "En ciertos entornos confinados completamente determinados por reglas, el aprendizaje automático se puede usar para crear algoritmos que superan a los humanos", dice Smith. "Pero esto no significa que puedan 'descubrir' las reglas que rigen cualquier actividad que tenga lugar en un entorno abierto, que es lo que el cerebro humano logra todos los días".

    Los escépticos de la tecnología, por supuesto, no tienen un historial perfecto. Se han equivocado con respecto a los avances que van desde los vuelos espaciales hasta la nanotecnología. Pero Smith y Landgrebe dicen que sus argumentos se basan en las implicaciones matemáticas de la teoría de los sistemas complejos. Por razones matemáticas, la IA no puede imitar la forma en que funciona el cerebro humano. De hecho, los autores dicen que es imposible diseñar una máquina que pueda rivalizar con el rendimiento cognitivo de un cuervo.

    "Un AGI es imposible", dice Smith. "Como muestra nuestro libro, no puede haber una inteligencia artificial general porque está más allá de los límites de lo que incluso en principio se puede lograr por medio de una máquina". + Explora más

    ¿Son los bebés la clave para la próxima generación de inteligencia artificial?




    © Ciencia https://es.scienceaq.com