Los gobiernos podrían fomentar la integración de la inteligencia humana y artificial. Crédito:sdecoret / Shutterstock
La invención de una superinteligencia artificial ha sido un tema central en la ciencia ficción desde al menos el siglo XIX. Desde el cuento de E.M. Forster The Machine Stops (1909) hasta la reciente serie de televisión de HBO Westworld, los escritores han tendido a presentar esta posibilidad como un desastre absoluto. Pero este tema ya no es de ficción. A destacados científicos e ingenieros contemporáneos también les preocupa que la super-IA pueda algún día superar la inteligencia humana (un evento conocido como la "singularidad") y convertirse en el "peor error" de la humanidad.
Las tendencias actuales sugieren que estamos listos para entrar en una carrera armamentista internacional por tal tecnología. Cualquier empresa de alta tecnología o laboratorio gubernamental que tenga éxito en inventar la primera súper IA obtendrá una tecnología potencialmente dominante en el mundo. Es un premio en el que el ganador se lo lleva todo. Entonces, para aquellos que quieran detener un evento de este tipo, la cuestión es cómo desalentar este tipo de carrera armamentista, o al menos incentivar a los equipos de la competencia a no tomar atajos con la seguridad de la IA.
Una súper IA plantea dos desafíos fundamentales para sus inventores, como han señalado el filósofo Nick Bostrom y otros. Uno es un problema de control, que es cómo asegurarse de que la super-IA tenga los mismos objetivos que la humanidad. Sin esto, la inteligencia podría deliberadamente, accidentalmente o por negligencia destruir a la humanidad, un "desastre de IA".
El segundo es un problema político, que es cómo garantizar que los beneficios de una superinteligencia no vayan solo a una pequeña élite, causando enormes desigualdades sociales y de riqueza. Si se produce una carrera de armamentos de súper IA, podría llevar a grupos competidores a ignorar estos problemas para desarrollar su tecnología más rápidamente. Esto podría conducir a una super-IA de mala calidad o hostil.
Una solución sugerida es utilizar la política pública para dificultar la participación en la carrera a fin de reducir el número de grupos en competencia y mejorar las capacidades de los que ingresan. Cuantos menos compitan, menos presión habrá para tomar atajos para ganar. Pero, ¿cómo pueden los gobiernos reducir la competencia de esta manera?
Mi colega Nicola Dimitri y yo publicamos recientemente un artículo que trataba de responder a esta pregunta. Primero mostramos que en una típica carrera en la que el ganador se lleva toda, como el que construyó la primera super-IA, Solo participarán los equipos más competitivos. Esto se debe a que la probabilidad de inventar realmente la súper IA es muy pequeña, y participar en la carrera es muy caro debido a la gran inversión necesaria en investigación y desarrollo.
En efecto, esta parece ser la situación actual con el desarrollo de una IA "estrecha" más simple. Las solicitudes de patentes para este tipo de IA están dominadas por unas pocas empresas, y la mayor parte de la investigación de IA se realiza en solo tres regiones (EE. UU., China y Europa). También parece haber muy pocos Si alguna, grupos que actualmente invierten en la construcción de una super-IA.
Esto sugiere que reducir el número de grupos en competencia no es la prioridad más importante en este momento. Pero incluso con un menor número de competidores en la carrera, la intensidad de la competencia aún podría conducir a los problemas mencionados anteriormente. Entonces, para reducir la intensidad de la competencia entre grupos que se esfuerzan por construir una súper IA y aumentar sus capacidades, los gobiernos podrían recurrir a la contratación pública y los impuestos.
La contratación pública se refiere a todas las cosas que los gobiernos pagan a las empresas privadas para que las proporcionen, desde software para uso en agencias gubernamentales hasta contratos para ejecutar servicios. Los gobiernos podrían imponer restricciones a cualquier proveedor de súper IA que les requiriera abordar los problemas potenciales, y admitir tecnologías complementarias para mejorar la inteligencia humana e integrarla con la IA.
Pero los gobiernos también podrían ofrecer comprar una versión menos que la mejor de super-IA, creando efectivamente un "segundo premio" en la carrera armamentista y evitando que sea una competencia en la que el ganador se lo lleva todo. Con premio intermedio, que podría ser por inventar algo parecido (pero no exactamente) a una super-IA, los grupos competidores tendrán un incentivo para invertir y cooperar más, Reducir la intensidad de la competencia. Un segundo premio también reduciría el riesgo de fracaso y justificaría una mayor inversión, ayudando a incrementar las capacidades de los equipos competidores.
En cuanto a impuestos, Los gobiernos podrían establecer la tasa impositiva sobre el grupo que inventa la súper IA de acuerdo con lo amigable o antipática que sea la IA. Una tasa impositiva lo suficientemente alta significaría esencialmente la nacionalización de la súper IA. Esto desalentaría fuertemente a las empresas privadas de tomar atajos por temor a perder su producto en manos del Estado.
Bien público, no monopolio privado
Esta idea puede requerir una mejor coordinación global de los impuestos y la regulación de la super-IA. Pero no sería necesario que todos los gobiernos estuvieran involucrados. En teoria, un solo país o región (como la UE) podría asumir los costes y el esfuerzo necesarios para abordar los problemas y la ética de la super-IA. Pero todos los países se beneficiarían y la súper IA se convertiría en un bien público en lugar de un monopolio privado imparable.
Por supuesto, todo esto depende de que la súper IA sea una amenaza para la humanidad. Y algunos científicos no creen que lo sea. Naturalmente, podríamos eliminar los riesgos de la súper IA con el tiempo. Algunos piensan que los humanos podrían incluso fusionarse con la IA.
Cualquiera que sea el caso, nuestro planeta y sus habitantes se beneficiarán enormemente de asegurarnos de que obtengamos lo mejor de la IA, una tecnología que aún está en pañales. Para esto, necesitamos comprender mejor el papel que puede desempeñar el gobierno.
Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.