• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • ¿Se hará cargo la IA? La teoría cuántica sugiere lo contrario

    Crédito:William Bradberry / Shutterstock

    ¿La inteligencia artificial superará algún día al pensamiento humano? El rápido progreso de la IA, junto con nuestro miedo estándar a las máquinas, ha expresado su preocupación de que sus habilidades algún día comenzarán a crecer incontrolablemente, eventualmente llevándolo a apoderarse del mundo y aniquilar a la humanidad si decide que somos un obstáculo para sus objetivos. Este momento generalmente se conoce como la "singularidad de la IA".

    Un argumento en contra de la posibilidad de tal supremo, inteligencia imparable e indefinidamente creciente es que necesitaría, por definición, para poder predecir con precisión el futuro. Y la teoría cuántica una de las formas clave de la ciencia moderna para explicar el universo, dice que predecir el futuro puede no ser posible porque el universo es aleatorio. Pero, ¿qué pasa si solo pensamos que predecir el futuro es imposible porque no somos lo suficientemente inteligentes como para saber lo contrario?

    La inteligencia es un concepto muy complejo y abstracto sin una definición consensuada. Sin embargo, Existe un acuerdo común sobre algunos de los componentes que componen todo tipo de inteligencia conocida. Uno de ellos es la capacidad de resolver problemas, lo que requiere la capacidad de planificar anticipando el futuro. Resolver un problema, es fundamental comprender las condiciones actuales, predecir cómo evolucionará el medio ambiente, y anticipar el resultado de las acciones que se aplicarán.

    Universo aleatorio

    Las recientes teorías de la física sugieren que el universo es extremadamente caótico y aleatorio. Tomemos el ejemplo de los elementos químicos inestables que eventualmente experimentan una desintegración radiactiva en otra sustancia. Puede estimar cuánto tiempo tardará una cierta cantidad de este elemento en descomponerse, pero no puede decir con certeza cuándo lo hará un solo átomo. Similar, puedes medir la posición o el momento de una partícula pero, por ciertas razones relacionadas con la teoría cuántica, no se pueden conocer los dos al mismo tiempo con total precisión. (Esto se conoce como principio de incertidumbre de Heisenberg).

    Suponiendo que estas teorías sean correctas, sugieren que, más allá de cierto nivel de detalle, el universo es en última instancia impredecible, caótico e inestable. Esto significaría que cualquier tipo de inteligencia en crecimiento eventualmente llegaría a un punto en el que ya no puede mejorar sus predicciones del futuro y, por lo tanto, no puede aumentar aún más la inteligencia. En otras palabras, no hay riesgo de una IA fuera de control, porque las leyes físicas del universo plantean unos límites estrictos muy restrictivos. Por ejemplo, dados los límites conocidos de la previsibilidad meteorológica, un sistema de inteligencia artificial no podrá burlar a los humanos mediante la explotación de pronósticos meteorológicos a largo plazo extremadamente precisos para planificar acciones futuras.

    Es muy reconfortante creer que la naturaleza del universo es, en algún sentido, prevenir una escalada de IA. Pero hay una perspectiva alternativa. ¿Qué pasa si los humanos perciben el universo como aleatorio y caótico solo porque nuestras capacidades cognitivas y de razonamiento son demasiado limitadas? Somos conscientes de algunos de los límites del entendimiento humano pero, parafraseando a Donald Rumsfeld, no sabemos lo que no sabemos.

    Tomando esta perspectiva, puede darse el caso de que el universo sea determinista, y por lo tanto completamente predecible, pero de una manera extremadamente compleja que nosotros, como seres humanos, no podemos comprender. Albert Einstein argumentó que la teoría cuántica era una descripción incompleta del universo y que debe haber variables ocultas que aún no comprendemos, pero que tienen la clave para determinar eventos futuros.

    Eso cambiaría la posibilidad de una singularidad de IA. Una inteligencia súper avanzada podría estar en condiciones de revelar estas variables ocultas y así comprender la naturaleza predecible del universo, desatando todo el potencial de la máquina. Vale la pena señalar que los enfoques de IA ya se utilizan para hacer descubrimientos en física automáticamente.

    A nivel práctico, la singularidad no parece tan plausible dado lo limitada que todavía es la IA. Los avances recientes en IA se han logrado a través de lo que se conoce como IA estrecha, diseñado para realizar una tarea bien definida como jugar al ajedrez o conducir un coche. Si bien la IA estrecha puede superar a los humanos en algunas tareas, Hay poco que sugiera que una IA más general que pueda emular la capacidad de los humanos para responder a muchas tareas diferentes se entregará y pondrá a los humanos en riesgo en un futuro cercano.

    Pero no podemos descartarlo por completo. Como todavía tenemos un conocimiento limitado de la naturaleza del universo, y del poder de la IA, quizás sea mejor ir a lo seguro. Incluso sin una singularidad La IA tendrá un impacto dramático en la sociedad humana. Necesitamos trabajar lo más duro posible para asegurarnos de que la IA sea beneficiosa para la humanidad, no es una amenaza para él.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com