Tecnología

Inteligencia Artificial

Meta está desarrollando un sistema de IA para predecir frases enteras

Buscan que la IA pueda razonar y aprender como una persona

(ESPECIAL)

(ESPECIAL)

EL UNIVERSAL.-

La inteligencia artificial (IA) ha logrado avances impresionantes en los últimos años, pero aún está lejos de aprender el lenguaje con la misma eficacia que los humanos.

Por ejemplo, los niños aprenden que "naranja" se refiere tanto a una fruta como a un color a partir de unos pocos ejemplos, pero los sistemas modernos de IA no pueden hacerlo con tanta eficacia como las personas.

¿Puede el cerebro humano ayudar a construir sistemas de IA que puedan aprender?

Esto ha llevado a muchos investigadores a preguntarse: ¿Puede el estudio del cerebro humano ayudar a construir sistemas de IA que puedan aprender y razonar como las personas?

Al respecto, la tecnológica Meta AI anunció una iniciativa de investigación a largo plazo para comprender mejor cómo el cerebro humano procesa el lenguaje.

En colaboración con el centro de neuroimagen NeuroSpin (CEA) y INRIA, la firma hará una comparación de cómo los modelos lingüísticos y el cerebro responden a las mismas oraciones orales o escritas.

"Usaremos los conocimientos de este trabajo para orientar el desarrollo de la IA que procesa la voz y el texto con la misma eficacia que las personas.

En los últimos dos años, aplicamos técnicas de aprendizaje profundo a conjuntos de datos públicos de neuroimagen para analizar cómo el cerebro procesa las palabras y oraciones", indicó meta en un comunicado.

En un comunicado, la compañía ha anunciado que tiene la intención de utilizar los resultados de este estudio para "guiar el desarrollo de Inteligencia Artificial que procese el habla y el texto de manera tan eficiente como las personas".

"Nuestra comparación entre los cerebros y los modelos lingüísticos ya generaron conocimientos valiosos" indicó Meta.

Los modelos lingüísticos que más se asemejan a la actividad cerebral son aquellos que predicen mejor la próxima palabra a partir del contexto (por ejemplo, "érase una... vez").

La predicción basada en entradas parcialmente observables es el centro del aprendizaje auto-supervisado en la IA y puede ser la clave de cómo se adquiere el lenguaje.

Sin embargo, regiones específicas en el cerebro descifran palabras e ideas con mayor anticipación, mientras que la mayoría de los modelos lingüísticos actuales suelen estar entrenados para predecir la siguiente palabra.

Habilitar esta capacidad de previsión de gran alcance podría ayudar a mejorar los modelos lingüísticos modernos de IA.

Por supuesto, solo se cuenta actualmente con una idea superficial: todavía hay muchas cosas que no son claras sobre el funcionamiento del cerebro.

"Ahora, nuestros colaboradores en NeuroSpin están creando un conjunto original de datos de neuroimagen para ampliar esta investigación. Abriremos el conjunto de datos, los modelos de aprendizaje profundo, el código y los artículos de investigación resultantes de este esfuerzo para estimular los descubrimientos en las comunidades de inteligencia artificial y neurociencia. Todo este trabajo es parte de las inversiones más amplias de Meta AI hacia una IA de nivel humano que aprenda con una supervisión limitada o nula", mencionó meta.

 

 

Escrito en: tecnología inteligencia artificial Meta cerebro, modelos, lingüísticos, humano

Noticias relacionadas

EL SIGLO RECIENTES

+ Más leídas de Tecnología

TE PUEDE INTERESAR

LECTURAS ANTERIORES

Fotografías más vistas

(ESPECIAL)