Skip to main content

Algunas redes neuronales artificiales aprenden lenguaje como los humanos

Un estudio de la Universidad de California, Berkeley, acaba de demostrar que algunas redes neuronales artificiales pueden aprender lenguaje tal como los humanos, lo que genera suspicacias sobre el avance demoledor de la IA.

«Ha habido un debate de larga data sobre si las redes neuronales aprenden de la misma manera que los humanos», dijo Vsevolod Kapatsinski, lingüista de la Universidad de Oregón.

Recommended Videos

El estudio publicado el mes pasado sugiere que las redes naturales y artificiales aprenden de manera similar, al menos cuando se trata del lenguaje. Los investigadores, dirigidos por Gašper Beguš, lingüista computacional de la Universidad de California, Berkeley, compararon las ondas cerebrales de los humanos que escuchan un sonido simple con la señal producida por una red neuronal que analiza el mismo sonido. Los resultados fueron asombrosamente similares. «Hasta donde sabemos», escribieron Beguš y sus colegas, las respuestas observadas al mismo estímulo «son las señales cerebrales y ANN más similares reportadas hasta ahora».

Lo más significativo es que los investigadores probaron redes formadas por neuronas de propósito general que son adecuadas para una variedad de tareas. «Muestran que incluso las redes muy, muy generales, que no tienen ningún sesgo evolucionado para el habla o cualquier otro sonido, muestran una correspondencia con la codificación neuronal humana», dijo Gary Lupyan, psicólogo de la Universidad de Wisconsin, Madison, que no participó en el trabajo. Los resultados no solo ayudan a desmitificar cómo aprenden las RNA, sino que también sugieren que los cerebros humanos pueden no estar ya equipados con hardware y software especialmente diseñados para el lenguaje.

El robot Omoy aspira a transformarse en la voz de tu conciencia
Imagen utilizada con permiso del titular de los derechos de autor

Para establecer una línea de base para el lado humano de la comparación, los investigadores reprodujeron una sola sílaba, «bah», repetidamente en dos bloques de ocho minutos para 14 hablantes de inglés y 15 hispanohablantes. Mientras se reproducía, los investigadores registraron fluctuaciones en la actividad eléctrica promedio de las neuronas en el tronco encefálico de cada oyente, la parte del cerebro donde los sonidos se procesan por primera vez.

Además, los investigadores alimentaron los mismos sonidos «bah» a dos conjuntos diferentes de redes neuronales, una entrenada en sonidos en inglés y la otra en español. Luego, los investigadores registraron la actividad de procesamiento de la red neuronal, centrándose en las neuronas artificiales en la capa de la red donde se analizan por primera vez los sonidos (para reflejar las lecturas del tronco encefálico). Fueron estas señales las que coincidieron estrechamente con las ondas cerebrales humanas.

Los investigadores eligieron un tipo de arquitectura de red neuronal conocida como red generativa antagónica (GAN), inventada originalmente en 2014 para generar imágenes.

En este estudio, el discriminador fue entrenado inicialmente en una colección de sonidos en inglés o español. Luego, el generador, que nunca escuchó esos sonidos, tuvo que encontrar una manera de producirlos. Comenzó haciendo sonidos aleatorios, pero después de unas 40,000 rondas de interacciones con el discriminador, el generador mejoró, produciendo finalmente los sonidos adecuados. Como resultado de esta capacitación, el discriminador también mejoró en la distinción entre reales y generados.

Fue en este punto, después de que el discriminador estaba completamente entrenado, que los investigadores le tocaron los sonidos «bah». El equipo midió las fluctuaciones en los niveles de actividad promedio de las neuronas artificiales del discriminador, que produjeron la señal tan similar a las ondas cerebrales humanas.

El experimento también reveló otro paralelismo interesante entre humanos y máquinas. Las ondas cerebrales mostraron que los participantes de habla inglesa y española escucharon el sonido «bah» de manera diferente (los hispanohablantes escucharon más de un «pah»), y las señales de GAN también mostraron que la red entrenada en inglés procesó los sonidos de manera algo diferente a la entrenada en español.

«Ahora estamos tratando de ver hasta dónde podemos llegar, qué tan cerca del lenguaje humano podemos llegar con las neuronas de propósito general», dijo Beguš. «¿Podemos llegar a niveles humanos de rendimiento con las arquitecturas computacionales que tenemos, simplemente haciendo que nuestros sistemas sean más grandes y más potentes, o eso nunca será posible?» Si bien se necesita más trabajo antes de que podamos saberlo con certeza, dijo, «estamos sorprendidos, incluso en esta etapa relativamente temprana, por lo similar que parece ser el funcionamiento interno de estos sistemas, humanos y ANN».

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La IA suma otro problemón: genera (y generará) un montón de basura
una cuarto de servidores

El desarrollo de más y más aplicaciones de inteligencia artificial también va a generar un crecimiento exponencial de la basura electrónica, residuos que típicamente están cargados de metales tóxicos y que suelen acabar en tiraderos en países con regulaciones laxas, advierte un estudio publicado en Nature Computational Science.

Según los expertos, si no se toman medidas para atenuar la cantidad de basura electrónica producida por los sistemas de inteligencia artificial, podríamos llegar a la década del 2030 con unas 2,500 millones de toneladas anuales de residuos, un incremento cercano al 1000% respecto a las 2,600 toneladas reportadas en 2023.

Leer más
Venden por 1 millón de dólares una «obra de arte» hecha por robot IA
venden obra arte robot ia pintura alan turing

Y llegó el momento en que hasta los artistas tendrán que ponerse nerviosos por el advenimiento de la IA, ya que en una subasta se logró vender por una cifra récord, la pintura realizada por un robot con IA.
La obra en cuestión, es una especie de retrato del descifrador de códigos de la Segunda Guerra Mundial, Alan Turing y se ha vendido por 1.084.800 dólares (836.667 libras) en la casa de remates Sotheby's.
Hubo 27 ofertas para la venta de arte digital de "A.I. God", que originalmente se había estimado que se vendería por entre 120.000 y 180.000 dólares.
La casa de subastas dijo que la venta histórica "lanza una nueva frontera en el mercado mundial del arte, estableciendo el punto de referencia de la subasta para una obra de arte de un robot humanoide".
Agregó que la obra de Ai-Da Robot es "el primer artista robot humanoide en tener una obra de arte vendida en una subasta".

Sotheby's dijo que la venta en línea, que terminó a las 19:00 GMT del jueves, fue comprada por un comprador no revelado por un precio "que supera con creces el precio estimado de la obra de arte".

Leer más
Nintendo nos lleva de paseo por Donkey Kong Land: ¿qué hay de nuevo?
donkey kong land que hay de nuevo

Super Nintendo World sigue afinando todos sus rincones para seguir creciendo y así convertirse en el mundo de fantasía en la vida real de los fanáticos de la compañía japonesa.

En la edición especial de este lunes 11 de noviembre de Nintendo, la leyenda de los videojuegos Shigeru Miyamoto llevó a los fanáticos a Donkey Kong Country como parte de un nuevo Nintendo Direct especial, dando una muestra de lo que se puede esperar de la expansión antes de su lanzamiento el próximo mes en Japón.

Leer más