Un estudio de la Universidad de California, Berkeley, acaba de demostrar que algunas redes neuronales artificiales pueden aprender lenguaje tal como los humanos, lo que genera suspicacias sobre el avance demoledor de la IA.
«Ha habido un debate de larga data sobre si las redes neuronales aprenden de la misma manera que los humanos», dijo Vsevolod Kapatsinski, lingüista de la Universidad de Oregón.
El estudio publicado el mes pasado sugiere que las redes naturales y artificiales aprenden de manera similar, al menos cuando se trata del lenguaje. Los investigadores, dirigidos por Gašper Beguš, lingüista computacional de la Universidad de California, Berkeley, compararon las ondas cerebrales de los humanos que escuchan un sonido simple con la señal producida por una red neuronal que analiza el mismo sonido. Los resultados fueron asombrosamente similares. «Hasta donde sabemos», escribieron Beguš y sus colegas, las respuestas observadas al mismo estímulo «son las señales cerebrales y ANN más similares reportadas hasta ahora».
Lo más significativo es que los investigadores probaron redes formadas por neuronas de propósito general que son adecuadas para una variedad de tareas. «Muestran que incluso las redes muy, muy generales, que no tienen ningún sesgo evolucionado para el habla o cualquier otro sonido, muestran una correspondencia con la codificación neuronal humana», dijo Gary Lupyan, psicólogo de la Universidad de Wisconsin, Madison, que no participó en el trabajo. Los resultados no solo ayudan a desmitificar cómo aprenden las RNA, sino que también sugieren que los cerebros humanos pueden no estar ya equipados con hardware y software especialmente diseñados para el lenguaje.
Para establecer una línea de base para el lado humano de la comparación, los investigadores reprodujeron una sola sílaba, «bah», repetidamente en dos bloques de ocho minutos para 14 hablantes de inglés y 15 hispanohablantes. Mientras se reproducía, los investigadores registraron fluctuaciones en la actividad eléctrica promedio de las neuronas en el tronco encefálico de cada oyente, la parte del cerebro donde los sonidos se procesan por primera vez.
Además, los investigadores alimentaron los mismos sonidos «bah» a dos conjuntos diferentes de redes neuronales, una entrenada en sonidos en inglés y la otra en español. Luego, los investigadores registraron la actividad de procesamiento de la red neuronal, centrándose en las neuronas artificiales en la capa de la red donde se analizan por primera vez los sonidos (para reflejar las lecturas del tronco encefálico). Fueron estas señales las que coincidieron estrechamente con las ondas cerebrales humanas.
Los investigadores eligieron un tipo de arquitectura de red neuronal conocida como red generativa antagónica (GAN), inventada originalmente en 2014 para generar imágenes.
En este estudio, el discriminador fue entrenado inicialmente en una colección de sonidos en inglés o español. Luego, el generador, que nunca escuchó esos sonidos, tuvo que encontrar una manera de producirlos. Comenzó haciendo sonidos aleatorios, pero después de unas 40,000 rondas de interacciones con el discriminador, el generador mejoró, produciendo finalmente los sonidos adecuados. Como resultado de esta capacitación, el discriminador también mejoró en la distinción entre reales y generados.
Fue en este punto, después de que el discriminador estaba completamente entrenado, que los investigadores le tocaron los sonidos «bah». El equipo midió las fluctuaciones en los niveles de actividad promedio de las neuronas artificiales del discriminador, que produjeron la señal tan similar a las ondas cerebrales humanas.
El experimento también reveló otro paralelismo interesante entre humanos y máquinas. Las ondas cerebrales mostraron que los participantes de habla inglesa y española escucharon el sonido «bah» de manera diferente (los hispanohablantes escucharon más de un «pah»), y las señales de GAN también mostraron que la red entrenada en inglés procesó los sonidos de manera algo diferente a la entrenada en español.
«Ahora estamos tratando de ver hasta dónde podemos llegar, qué tan cerca del lenguaje humano podemos llegar con las neuronas de propósito general», dijo Beguš. «¿Podemos llegar a niveles humanos de rendimiento con las arquitecturas computacionales que tenemos, simplemente haciendo que nuestros sistemas sean más grandes y más potentes, o eso nunca será posible?» Si bien se necesita más trabajo antes de que podamos saberlo con certeza, dijo, «estamos sorprendidos, incluso en esta etapa relativamente temprana, por lo similar que parece ser el funcionamiento interno de estos sistemas, humanos y ANN».