Skip to main content

Algunas redes neuronales artificiales aprenden lenguaje como los humanos

Un estudio de la Universidad de California, Berkeley, acaba de demostrar que algunas redes neuronales artificiales pueden aprender lenguaje tal como los humanos, lo que genera suspicacias sobre el avance demoledor de la IA.

«Ha habido un debate de larga data sobre si las redes neuronales aprenden de la misma manera que los humanos», dijo Vsevolod Kapatsinski, lingüista de la Universidad de Oregón.

Recommended Videos

El estudio publicado el mes pasado sugiere que las redes naturales y artificiales aprenden de manera similar, al menos cuando se trata del lenguaje. Los investigadores, dirigidos por Gašper Beguš, lingüista computacional de la Universidad de California, Berkeley, compararon las ondas cerebrales de los humanos que escuchan un sonido simple con la señal producida por una red neuronal que analiza el mismo sonido. Los resultados fueron asombrosamente similares. «Hasta donde sabemos», escribieron Beguš y sus colegas, las respuestas observadas al mismo estímulo «son las señales cerebrales y ANN más similares reportadas hasta ahora».

Lo más significativo es que los investigadores probaron redes formadas por neuronas de propósito general que son adecuadas para una variedad de tareas. «Muestran que incluso las redes muy, muy generales, que no tienen ningún sesgo evolucionado para el habla o cualquier otro sonido, muestran una correspondencia con la codificación neuronal humana», dijo Gary Lupyan, psicólogo de la Universidad de Wisconsin, Madison, que no participó en el trabajo. Los resultados no solo ayudan a desmitificar cómo aprenden las RNA, sino que también sugieren que los cerebros humanos pueden no estar ya equipados con hardware y software especialmente diseñados para el lenguaje.

El robot Omoy aspira a transformarse en la voz de tu conciencia
Imagen utilizada con permiso del titular de los derechos de autor

Para establecer una línea de base para el lado humano de la comparación, los investigadores reprodujeron una sola sílaba, «bah», repetidamente en dos bloques de ocho minutos para 14 hablantes de inglés y 15 hispanohablantes. Mientras se reproducía, los investigadores registraron fluctuaciones en la actividad eléctrica promedio de las neuronas en el tronco encefálico de cada oyente, la parte del cerebro donde los sonidos se procesan por primera vez.

Además, los investigadores alimentaron los mismos sonidos «bah» a dos conjuntos diferentes de redes neuronales, una entrenada en sonidos en inglés y la otra en español. Luego, los investigadores registraron la actividad de procesamiento de la red neuronal, centrándose en las neuronas artificiales en la capa de la red donde se analizan por primera vez los sonidos (para reflejar las lecturas del tronco encefálico). Fueron estas señales las que coincidieron estrechamente con las ondas cerebrales humanas.

Los investigadores eligieron un tipo de arquitectura de red neuronal conocida como red generativa antagónica (GAN), inventada originalmente en 2014 para generar imágenes.

En este estudio, el discriminador fue entrenado inicialmente en una colección de sonidos en inglés o español. Luego, el generador, que nunca escuchó esos sonidos, tuvo que encontrar una manera de producirlos. Comenzó haciendo sonidos aleatorios, pero después de unas 40,000 rondas de interacciones con el discriminador, el generador mejoró, produciendo finalmente los sonidos adecuados. Como resultado de esta capacitación, el discriminador también mejoró en la distinción entre reales y generados.

Fue en este punto, después de que el discriminador estaba completamente entrenado, que los investigadores le tocaron los sonidos «bah». El equipo midió las fluctuaciones en los niveles de actividad promedio de las neuronas artificiales del discriminador, que produjeron la señal tan similar a las ondas cerebrales humanas.

El experimento también reveló otro paralelismo interesante entre humanos y máquinas. Las ondas cerebrales mostraron que los participantes de habla inglesa y española escucharon el sonido «bah» de manera diferente (los hispanohablantes escucharon más de un «pah»), y las señales de GAN también mostraron que la red entrenada en inglés procesó los sonidos de manera algo diferente a la entrenada en español.

«Ahora estamos tratando de ver hasta dónde podemos llegar, qué tan cerca del lenguaje humano podemos llegar con las neuronas de propósito general», dijo Beguš. «¿Podemos llegar a niveles humanos de rendimiento con las arquitecturas computacionales que tenemos, simplemente haciendo que nuestros sistemas sean más grandes y más potentes, o eso nunca será posible?» Si bien se necesita más trabajo antes de que podamos saberlo con certeza, dijo, «estamos sorprendidos, incluso en esta etapa relativamente temprana, por lo similar que parece ser el funcionamiento interno de estos sistemas, humanos y ANN».

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Meta quiere construir un cable de fibra óptica de tamaño mundial
google facebook cables submarinos proyecto apricot cross section of a submarine communications cable  3d illustration

La gente de Meta quiere controlarlo todo y sus esfuerzos en inversión en inteligencia artificial, también tendrá que tener una concordancia en infraestructura necesaria para eso.

Según información de TechCrunch, la compañía de Mark Zuckerberg planea construir un nuevo e importante cable submarino de fibra óptica que se extienda por todo el mundo, un proyecto de 40,000+ kilómetros que podría totalizar más de $ 10 mil millones de inversión. Lo más importante es que Meta será el único propietario y usuario de este cable.
El plan es comenzar con un presupuesto de 2.000 millones de dólares, pero a medida que el proyecto se desarrolle, es probable que esa cifra aumente a más de 10.000 millones de dólares a medida que el proyecto se extienda a años de trabajo.
La expectativa es que Meta hable más públicamente al respecto a principios de 2025, cuando confirme los planes para el cable, incluida la ruta prevista, la capacidad y algunos de los razonamientos detrás de su construcción.

Leer más
Panasonic trae de la muerte a su fundador con la ayuda de la IA
panasonic revive ia fundador konosuke matsushita

Una situación inusual y muy curiosa está haciendo Panasonic, ya que la compañía de la ciudad de Kioto acaba de revivir a su fundador Konosuke Matsushita, por intermedio de la IA, para que obre como una especie de consultor experimentado.

Konosuke Matsushita, fundó Matsushita Electric Industrial Co., Ltd, que luego se convirtió en Panasonic. Dejó un gran legado en la empresa nipona y falleció el 27 de abril de 1989.

Leer más
Las claves para triunfar en tecnología según la ex de Elon Musk
Elon Musk

Elon Musk es uno de los empresarios más reconocidos y polémicos de nuestra era. Fundador de Tesla, SpaceX y Neuralink, y más recientemente dueño de Twitter, plataforma que transformó en X, Musk ha redefinido industrias enteras con su visión disruptiva. Sin embargo, su trayectoria no está libre de controversias. Sus decisiones y declaraciones han sido bastante controversiales, especialmente en temas laborales, ambientales y sociales. Con una personalidad única y actitudes poco convencionales, es inevitable preguntarse cómo ha alcanzado semejante éxito en el mundo tecnológico.

La escritora Justine Musk, quien fue su primera esposa, ofrece una perspectiva íntima y única sobre esta cuestión. No solo fue testigo de los primeros pasos del magnate en su carrera, sino que ha reflexionado públicamente sobre las características y sacrificios necesarios para alcanzar lo que ella denomina un “éxito extremo”. En una publicación en Quora que, pese a los años, sigue siendo relevante, Justine compartió sus ideas sobre lo que realmente implica llegar a la cima como figuras como Musk, Bill Gates o Steve Jobs.

Leer más