Últimas noticias

Humberto Bustince (UPNA): «Quien maneja los datos domina el mundo»

Javier Rodrigo

Pamplona, 1 jun (EFE).- El reconocido físico teórico Stephen Hawking advirtió a la humanidad en 2014 de que el desarrollo de una completa inteligencia artificial (IA) podría suponer el fin de la raza humana. Y el catedrático de la Universidad Pública de Navarra (UPNA) Humberto Bustince está «totalmente de acuerdo» con ello.

Bustince ha recibido uno de los premios nacionales de informática que otorga la Sociedad Científica Informática de España y la Fundación BBVA.

El catedrático ha respaldado en una entrevista con Efe las palabras del científico británico, aunque con un matiz. A su juicio, el gran peligro de la IA para la humanidad es que se le dé acceso total a los datos digitales o «big data».

El procesamiento de datos personales entra de lleno en la privacidad de las personas y por ello «hay partes de la IA que hay que regular y donde más estamos fallando es precisamente en las leyes y la ética» aplicable a este sector, ha lamentado Bustince.

En ese sentido, la IA «es mucho más peligrosa, como decía Stephen, que la energía nuclear», ha afirmado Bustince, quien ha recordado que «quien maneja los datos puede dominar el mundo».

Bustince Sola (Ujué, Navarra, 1958), quien imparte clases de IA en la universidad navarra y es profesor honorario de la Universidad de Nottingham (Reino Unido), ha apuntado que además hay un «problema añadido», la guerra tecnológica entre Estados Unidos y China, que hace que «para ellos la regulación sea algo secundario».

«En Europa se está intentando hacer una regulación mucho más fuerte, pero eso nos puede llevar a perder la guerra, a que nos quedemos los terceros», ha subrayado Bustince, considerado uno de los diez autores más influyentes del mundo dentro de la lógica intuicionista difusa o borrosa.

Se han dado muchas definiciones de lo que es la IA, pero, para el investigador navarro, la mejor es la establecida en la Conferencia de Dartmouth (Estados Unidos) en 1956: «La IA es la ciencia que trata de hacer máquinas que hacen cosas que, si las hiciera una persona, diríamos que esa persona es inteligente», ha explicado Bustince.

Los científicos, ha indicado, «lo que queremos hacer es simular la inteligencia. No sabemos cómo actúa nuestro cerebro o nuestro sistema neurológico. No tenemos una certeza del modelo real y por eso lo que hacemos es simularlo». Para alcanzar ese objetivo, se han dado pasos importantes en las últimas décadas y en este momento la IA es mucho más que simple memoria o capacidad de procesamiento.

Al ser una «simulación» de la inteligencia humana, la IA sigue otras reglas. Bustince lo explica con una analogía: «Las máquinas también vuelan, siguiendo una serie de leyes de la física, pero no vuelan exactamente igual a como lo hace un pájaro». Los mismo pasa con la IA en relación a la inteligencia humana.

La ventaja de esa simulación, ha agregado, es que la IA «va a ser inteligencia de máquina y siempre estará subordinada al hombre. ¿Un algoritmo puede ser más inteligente que la persona que lo crea? Yo creo que por ahora no. Nosotros estamos todavía un paso más allá».

Al menos, ha precisado, en la llamada inteligencia computacional o «IA débil», porque está la otra, la «IA fuerte», la especialidad que intenta dotar a las máquinas de sentimientos y sensaciones o, al menos, de un remedo de las mismas. Aunque Bustince tampoco cree que esta IA «vaya a conseguir superar al hombre nunca, y además soy tajante».

En lo que sí nos va a superar la IA es en la realización de los trabajos mecánicos y repetitivos, que los humanos vamos a dejar de hacer, «lo cual es muy bueno» en opinión de Bustince. Así, todos los trabajos en cadenas de montaje «nos los van a quitar» los robots y «cobots» (robots diseñados para colaborar físicamente con humanos).

Pero que nadie se alarme. Según Bustince, los robots y la IA «nos van a dejar mucho tiempo libre» y además «se generarán nuevas profesiones totalmente diferentes», relacionadas precisamente con estas tecnologías. EFE

About The Author

Otras noticias publicadas

Responder

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies