Skip to main content

Algunas redes neuronales artificiales aprenden lenguaje como los humanos

Un estudio de la Universidad de California, Berkeley, acaba de demostrar que algunas redes neuronales artificiales pueden aprender lenguaje tal como los humanos, lo que genera suspicacias sobre el avance demoledor de la IA.

«Ha habido un debate de larga data sobre si las redes neuronales aprenden de la misma manera que los humanos», dijo Vsevolod Kapatsinski, lingüista de la Universidad de Oregón.

El estudio publicado el mes pasado sugiere que las redes naturales y artificiales aprenden de manera similar, al menos cuando se trata del lenguaje. Los investigadores, dirigidos por Gašper Beguš, lingüista computacional de la Universidad de California, Berkeley, compararon las ondas cerebrales de los humanos que escuchan un sonido simple con la señal producida por una red neuronal que analiza el mismo sonido. Los resultados fueron asombrosamente similares. «Hasta donde sabemos», escribieron Beguš y sus colegas, las respuestas observadas al mismo estímulo «son las señales cerebrales y ANN más similares reportadas hasta ahora».

Lo más significativo es que los investigadores probaron redes formadas por neuronas de propósito general que son adecuadas para una variedad de tareas. «Muestran que incluso las redes muy, muy generales, que no tienen ningún sesgo evolucionado para el habla o cualquier otro sonido, muestran una correspondencia con la codificación neuronal humana», dijo Gary Lupyan, psicólogo de la Universidad de Wisconsin, Madison, que no participó en el trabajo. Los resultados no solo ayudan a desmitificar cómo aprenden las RNA, sino que también sugieren que los cerebros humanos pueden no estar ya equipados con hardware y software especialmente diseñados para el lenguaje.

El robot Omoy aspira a transformarse en la voz de tu conciencia
Imagen utilizada con permiso del titular de los derechos de autor

Para establecer una línea de base para el lado humano de la comparación, los investigadores reprodujeron una sola sílaba, «bah», repetidamente en dos bloques de ocho minutos para 14 hablantes de inglés y 15 hispanohablantes. Mientras se reproducía, los investigadores registraron fluctuaciones en la actividad eléctrica promedio de las neuronas en el tronco encefálico de cada oyente, la parte del cerebro donde los sonidos se procesan por primera vez.

Además, los investigadores alimentaron los mismos sonidos «bah» a dos conjuntos diferentes de redes neuronales, una entrenada en sonidos en inglés y la otra en español. Luego, los investigadores registraron la actividad de procesamiento de la red neuronal, centrándose en las neuronas artificiales en la capa de la red donde se analizan por primera vez los sonidos (para reflejar las lecturas del tronco encefálico). Fueron estas señales las que coincidieron estrechamente con las ondas cerebrales humanas.

Los investigadores eligieron un tipo de arquitectura de red neuronal conocida como red generativa antagónica (GAN), inventada originalmente en 2014 para generar imágenes.

En este estudio, el discriminador fue entrenado inicialmente en una colección de sonidos en inglés o español. Luego, el generador, que nunca escuchó esos sonidos, tuvo que encontrar una manera de producirlos. Comenzó haciendo sonidos aleatorios, pero después de unas 40,000 rondas de interacciones con el discriminador, el generador mejoró, produciendo finalmente los sonidos adecuados. Como resultado de esta capacitación, el discriminador también mejoró en la distinción entre reales y generados.

Fue en este punto, después de que el discriminador estaba completamente entrenado, que los investigadores le tocaron los sonidos «bah». El equipo midió las fluctuaciones en los niveles de actividad promedio de las neuronas artificiales del discriminador, que produjeron la señal tan similar a las ondas cerebrales humanas.

El experimento también reveló otro paralelismo interesante entre humanos y máquinas. Las ondas cerebrales mostraron que los participantes de habla inglesa y española escucharon el sonido «bah» de manera diferente (los hispanohablantes escucharon más de un «pah»), y las señales de GAN también mostraron que la red entrenada en inglés procesó los sonidos de manera algo diferente a la entrenada en español.

«Ahora estamos tratando de ver hasta dónde podemos llegar, qué tan cerca del lenguaje humano podemos llegar con las neuronas de propósito general», dijo Beguš. «¿Podemos llegar a niveles humanos de rendimiento con las arquitecturas computacionales que tenemos, simplemente haciendo que nuestros sistemas sean más grandes y más potentes, o eso nunca será posible?» Si bien se necesita más trabajo antes de que podamos saberlo con certeza, dijo, «estamos sorprendidos, incluso en esta etapa relativamente temprana, por lo similar que parece ser el funcionamiento interno de estos sistemas, humanos y ANN».

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
APAGÓN MUNDIAL: pantalla azul de la muerte de Microsoft deja sin sistema a miles de servicios
apagon mundial pantalla azul de la muerte microsoft sin sistema miles servicios apag  n

Un grave problema informático de pantalla azul de la muerte (BSOD) en el arranque, comenzó durante la noche de este jueves 18 de julio y se está prolongando este viernes 19 en varios lugares del mundo, afectando a servicios esenciales como aeropuertos, bancos, emisoras de TV y radio, supermercados y otras empresas.

Una actualización defectuosa del proveedor de ciberseguridad CrowdStrike está dejando fuera de línea las PC y los servidores afectados, lo que los obliga a entrar en un bucle de arranque de recuperación para que las máquinas no puedan iniciarse correctamente. CrowdStrike es ampliamente utilizado por muchas empresas en todo el mundo para administrar la seguridad de PC y servidores con Windows.

Leer más
Lista de servicios afectados a nivel mundial por el APAGÓN
lista servicios afectados apagon mundial aeropuerto india registro vuelos

El gran apagón mundial producto de la falla BSOD o de pantalla azul de la muerte generada por el proveedor de seguridad de Microsoft, CrowdStrike, ha dejado a miles de servicios a nivel mundial colapsados o sin poder iniciarse.

La falla está asociada con el sistema operativo Windows y ha impactado a vuelos, emisiones de radio y televisión, y operaciones de supermercados y entidades bancarias, debido a una desconexión después de que pantallas de computadoras se tornaran azules y mostraran el mensaje de “error fatal”.
Algunos servicios afectados por el apagón mundial

Leer más
Qué es CrowdStrike y por qué es el villano del apagón mundial
que es crowdstrike

En el ojo del huracán ha estado por estas horas la compañía de ciberseguridad estadounidense CrowdStrike, todo por un gran apagón mundial que ha afectado a miles de servicios y que ha paralizado actividades en aeropuertos, bancos, supermercados, hospitales y emisoras de radio y TV.

El director Crowdstrike, George Kurtz, dijo que los problemas fueron causados ​​por un "defecto" en una "actualización de contenido" para dispositivos Microsoft Windows.
“Crowdstrike está trabajando activamente con los clientes impactados por un defecto encontrado en un contenido único de una actualización para servidores Windows”
Expresó que los servidores de Mac y Linux no están afectados y aseguró que el incidente no estaba relacionado a la seguridad ni un ciberataque.
“El problema se ha identificado, aislado y un arreglo se ha implementado”, añadió.

Leer más