El padrino de la inteligencia artificial: habrá una renta básica universal
Martes 21 de mayo de 2024
El informático considerado el «padrino de la inteligencia artificial» afirma que el Gobierno tendrá que establecer una renta básica universal para hacer frente al impacto de la Inteligencia artificial en la desigualdad (preámbulo de la Marca de la Bestia).
El profesor Geoffrey Hinton declaró a Newsnight, de la BBC, que sería necesaria una reforma de las prestaciones sociales que concediera cantidades fijas de dinero en efectivo a todos los ciudadanos, porque le preocupaba «mucho que la Inteligencia artificial se quedara con muchos trabajos mundanos».
«Me consultaron en Downing Street y les aconsejé que la renta básica universal era una buena idea», dijo.
En su opinión, la inteligencia artificial aumentaría la productividad y la riqueza, pero el dinero iría a parar a los ricos «y no a la gente que perdería su trabajo, lo que sería muy perjudicial para la sociedad».
El profesor Hinton es el pionero de las redes neuronales, que constituyen la base teórica de la actual explosión de la inteligencia artificial.
Hasta el año pasado trabajaba en Google, pero abandonó el gigante tecnológico para poder hablar con más libertad sobre los peligros de la Inteligencia artificial no regulada.
El concepto de renta básica universal consiste en que el Estado pague a todas las personas un salario fijo, independientemente de sus recursos.
Sus detractores afirman que sería extremadamente costosa y desviaría fondos de los servicios públicos, además de no contribuir necesariamente a aliviar la pobreza.
Un portavoz del gobierno declaró que «no hay planes para introducir una renta básica universal».
El profesor Hinton reiteró su preocupación por la amenaza de extinción de la especie humana.
A la pregunta de si Occidente estaba en una carrera al estilo del Proyecto Manhattan -en referencia a la investigación de armas nucleares durante la Segunda Guerra Mundial- con autocracias como Rusia y China sobre el uso militar de la Inteligencia artificial, el profesor Hinton respondió:
«[El presidente ruso Vladimir] Putin dijo hace unos años que quien controle la Inteligencia artificial controlará el mundo. Así que imagino que están trabajando muy duro.
«Afortunadamente, Occidente probablemente les lleva mucha ventaja en investigación. Probablemente todavía estamos ligeramente por delante de China. Pero China está invirtiendo más recursos. Así que en términos de usos militares creo que va a haber una carrera».
En su opinión, una solución mejor sería prohibir los usos militares de la Inteligencia artificial.
En su opinión, los acontecimientos del último año demuestran que los gobiernos no están dispuestos a frenar el uso militar de la Inteligencia artificial, mientras que la competencia por desarrollar productos con rapidez implica el riesgo de que las empresas tecnológicas «no se esfuercen lo suficiente en la seguridad».
Según el profesor Hinton, «creo que dentro de entre cinco y veinte años habrá una probabilidad alta de que tengamos que enfrentarnos al problema de que la Inteligencia artificial intente tomar el control».
Esto supondría una «amenaza de extinción» para los humanos, ya que podríamos haber «creado una forma de inteligencia mejor que la inteligencia biológica… Esto es muy preocupante para nosotros».
La inteligencia artificial podría «evolucionar» para «motivarse a hacer más de sí misma» y «desarrollar de forma autónoma el objetivo secundario de obtener el control».
Según él, ya hay pruebas de que los grandes modelos lingüísticos -un tipo de algoritmo de Inteligencia artificial utilizado para generar texto- optan por el engaño.
En su opinión, las recientes aplicaciones de la Inteligencia artificial para generar miles de objetivos militares son «la punta del iceberg».
«Lo que más me preocupa es que puedan tomar de forma autónoma la decisión de matar», afirmó.
El profesor Hinton dijo que podría ser necesario algo similar a las Convenciones de Ginebra -los tratados internacionales que establecen normas legales para el trato humanitario en la guerra- para regular el uso militar de la Inteligencia artificial.
«Pero no creo que eso ocurra hasta que hayan pasado cosas muy desagradables», añadió.