Demis Hassabis: Hay que regular la IA, pero es importante hacerlo con las normas correctas
Para Hassabis la inteligencia artificial es una tecnología que avanza y evoluciona "muy deprisa" y no es lo que los expertos se imaginaba hace años
La Inteligencia Artificial es seguramente la tecnología “más poderosa" que vaya a inventar la Humanidad, por eso hay que tomar “en serio sus riesgos” y ponerle normas, pero "es muy importante que establezcamos las regulaciones correctas", según el nuevo premio nobel de Química y responsable de Google DeepMind, Demis Hassabis.
Los premios nobel en Física, Química y Economía de este año participaron hoy en una rueda de prensa en Estocolmo, donde el martes próximo recibirán el galardón, y que se centró casi exclusivamente en la Inteligencia Artificial (IA), que en esta edición ha sido la protagonista en dos las categorías.
Aspectos positivos y negativos
Todos reconocieron los aspectos positivos de la IA, pero no hay que pasar por alto las amenazas que puede entrañar o la posibilidad de que algún día se llegue a una superintelifencia artificial (con una alcance intelectual superior a la humana), de ahí la necesidad y el desafío de regularla.
"La IA es una tecnología muy importante que hay regular, pero creo que es muy importante que establezcamos las regulaciones correctas" y eso es "lo más difícil en este momento" porque es "una tecnología que evoluciona muy rápidamente", destacó Hassabis, consejero delegado de Google DeepMind, la parte de investigación en IA de Google.
En este momento, la IA es una tecnología que avanza y evoluciona muy deprisa, y lo que se debatió sobre ella hace unos años “no es en lo que estaríamos pensado ahora”, agregó.
Por ello, Hassabi aconsejó a los gobiernos y a la sociedad civil “que establezcan normativas rápidas y ágiles, que se basen en las normativas que ya existen en ámbitos como la sanidad o el transporte, y que vean cómo evoluciona la tecnología y se adapten rápidamente a su evolución”.
Armas letales
Para el premio nobel de Física Geoffrey Hinton, considerado el padrino de la IA, uno de los peligros a corto plazo es el desarrollo de “armas autónomas letales” y aseguró que “no va a haber ninguna regulación al respecto”.
Hinton, que el año pasado abandonó Google para poder alertar libremente sobre los riesgos de la IA y la posibilidad de que se salga de control, dijo que “los gobiernos no están dispuestos a regularse cuando se trata de armas autónomas letales”.
El nobel dijo que ya “se está produciendo una carrera armamentística entre los principales países proveedores de armas como Estados Unidos, China. Rusia, Reino Unido, Israel".
Desde el punto de vista del economista, el premio nobel en esa disciplina Daron Acemoglu dijo que la regulación debe ser un interés de primer orden, aunque es difícil, "tanto por la rapidez con que evoluciona la IA, como por la naturaleza internacional de los avances, su despliegue y porque hay muy poca experiencia de regulación en estos ámbitos”.
Acemoglu, que ha estudiado la importancia de las instituciones en la prosperidad de las naciones, destacó que hoy la regulación es "muy reactiva", pero que, con lo “disruptiva, importante y omnipresente que va a ser la IA", serían necesarias "algunas regulaciones más proactivas”.
La IA será “una de las tecnologías más poderosas, si no la más poderosa que la Humanidad invente jamás”, pero siempre "hemos sido conscientes de "los riesgos que conlleva cualquier tecnología potente de propósito general”, dijo Hassabis, quien insistió en que se los toman muy en serio.
Pero se trata “de una cuestión social, no solo tecnológica: ¿Para qué queremos utilizar estos sistemas, cómo queremos desplegarlos?” y asegurarse de que “toda la humanidad se beneficia de lo que pueden hacer”.
Hinton, de la Universidad de Toronto (Canadá), se mostró convencido de que la superinteligencia artificial llegará y la velocidad de los últimos avances le hacen pensar que “va a ser bastante pronto".
El nobel consideró que tendremos “algo parecido a la superinteligencia dentro de “entre 5 y 20 años”, momento en que “tendremos que preocuparnos seriamente por cómo mantener el control”.
Premiado por sus investigaciones sobre las redes neuronales artificiales, con las que ahora aprenden las máquinas, dijo que como una superinteligencia artificial llegará "más rápido de lo que pensaba", ahora desearía haber pensado “antes en la seguridad".
La DNCD se incauta de más de 65,000 kilogramos de sustancias controladas en 2024
El TC rechaza recurso que tumbaba la reforma constitucional
Gran parte de la República Dominicana estará sin lluvias este sábado
SDD y CDP aseguran que el Gobierno debe crear una nueva ley de la DNI apegada a la Constitución
Haití registra al menos cuatro muertos y cuatro desaparecidos por lluvias torrenciales