Ciencia

'No estamos lejos de armas autómatas'

Simari consideró que, por definición, el software que se utiliza para el desarrollo de modelos de inteligencia artificial 'no es un material que uno pueda controlar' y no está exento de riesgos. (EFE)

Simari consideró que, por definición, el software que se utiliza para el desarrollo de modelos de inteligencia artificial 'no es un material que uno pueda controlar' y no está exento de riesgos. (EFE)

EFE

"No estamos tan lejos de las armas autómatas y eso es peligrosísimo", dijo en una entrevista el experto argentino Guillermo Simari, anfitrión de un encuentro internacional que reúne a más de un millar de especialistas en inteligencia artificial en Buenos Aires.

Simari consideró que, por definición, el software que se utiliza para el desarrollo de modelos de inteligencia artificial "no es un material que uno pueda controlar" y no está exento de riesgos.

A su juicio, con el avance del software, no es impensable que en el futuro se pierda el "control humano" en las acciones de algunos sistemas que ya están funcionando en una modalidad más simple, a través de teléfonos o automóviles.

Simari encabezó la Conferencia Internacional de Inteligencia Artificial, que reunió a 1,200 especialistas en la capital argentina.

Durante la cita, considerada la más importante del sector, ya se ha alertado sobre los riesgos del uso del software con fines bélicos.

En una carta, difundida durante la convención, algunos de los más reconocidos científicos del mundo, como Stephen Hawking, y filósofos, como Noam Chomsky, entre otros, advertieron de los peligros de usar la inteligencia artificial para el desarrollo de armas.

"Cuando uno le quita el componente de peligro a la batalla, cuál es el problema de mandar miles de máquinas a combatir con otras miles de máquinas, se transforma casi en un juego de computadoras", sostuvo al respecto el experto argentino.

Simari admitió también la complejidad de "prohibir su desarrollo" por tratarse simplemente de software, un área de conocimiento a la que tienen acceso multitud de agentes y que engloba "un problema ético muy complicado" que, previsiblemente, "va a durar años".

Según el experto, aunque "no hemos avanzado hasta el punto de tener una inteligencia artificial general del nivel de un ser humano", se ha caminado con paso firme hacia "sistemas inteligentes en dominios reducidos".

Además, la cuestión de la inteligencia artificial abre un nuevo frente, el de las tareas rutinarias y sin complejidad que hoy "ocupa al 20 % de la fuerza laboral".

Estos trabajadores podrían ser reemplazados por sistemas automáticos, lo que obliga a "pensar en el futuro" y valorar cómo ocupar a la humanidad para que pueda "ganar su sustento" sin necesidad de realizar ciertos trabajos, apuntó.

No obstante, Simari aseguró que "todavía falta mucho" para comprender totalmente cómo funciona el cerebro "y replicarlo".

Leer más de Ciencia

Escrito en: Armas armas automatas super tecnologia

Noticias relacionadas

Siglo Plus

+ Más leídas de Ciencia

TE PUEDE INTERESAR

LECTURAS ANTERIORES

Fotografías más vistas

Videos más vistos semana

Simari consideró que, por definición, el software que se utiliza para el desarrollo de modelos de inteligencia artificial 'no es un material que uno pueda controlar' y no está exento de riesgos. (EFE)

Clasificados

ID: 1139379

YouTube Facebook Twitter Instagram TikTok

elsiglo.mx