Skip to main content
  1. Home
  2. Tendencias
  3. Features

Algunas redes neuronales artificiales aprenden lenguaje como los humanos

Add as a preferred source on Google

Un estudio de la Universidad de California, Berkeley, acaba de demostrar que algunas redes neuronales artificiales pueden aprender lenguaje tal como los humanos, lo que genera suspicacias sobre el avance demoledor de la IA.

«Ha habido un debate de larga data sobre si las redes neuronales aprenden de la misma manera que los humanos», dijo Vsevolod Kapatsinski, lingüista de la Universidad de Oregón.

Recommended Videos

El estudio publicado el mes pasado sugiere que las redes naturales y artificiales aprenden de manera similar, al menos cuando se trata del lenguaje. Los investigadores, dirigidos por Gašper Beguš, lingüista computacional de la Universidad de California, Berkeley, compararon las ondas cerebrales de los humanos que escuchan un sonido simple con la señal producida por una red neuronal que analiza el mismo sonido. Los resultados fueron asombrosamente similares. «Hasta donde sabemos», escribieron Beguš y sus colegas, las respuestas observadas al mismo estímulo «son las señales cerebrales y ANN más similares reportadas hasta ahora».

Lo más significativo es que los investigadores probaron redes formadas por neuronas de propósito general que son adecuadas para una variedad de tareas. «Muestran que incluso las redes muy, muy generales, que no tienen ningún sesgo evolucionado para el habla o cualquier otro sonido, muestran una correspondencia con la codificación neuronal humana», dijo Gary Lupyan, psicólogo de la Universidad de Wisconsin, Madison, que no participó en el trabajo. Los resultados no solo ayudan a desmitificar cómo aprenden las RNA, sino que también sugieren que los cerebros humanos pueden no estar ya equipados con hardware y software especialmente diseñados para el lenguaje.

El robot Omoy aspira a transformarse en la voz de tu conciencia
Imagen utilizada con permiso del titular de los derechos de autor

Para establecer una línea de base para el lado humano de la comparación, los investigadores reprodujeron una sola sílaba, «bah», repetidamente en dos bloques de ocho minutos para 14 hablantes de inglés y 15 hispanohablantes. Mientras se reproducía, los investigadores registraron fluctuaciones en la actividad eléctrica promedio de las neuronas en el tronco encefálico de cada oyente, la parte del cerebro donde los sonidos se procesan por primera vez.

Además, los investigadores alimentaron los mismos sonidos «bah» a dos conjuntos diferentes de redes neuronales, una entrenada en sonidos en inglés y la otra en español. Luego, los investigadores registraron la actividad de procesamiento de la red neuronal, centrándose en las neuronas artificiales en la capa de la red donde se analizan por primera vez los sonidos (para reflejar las lecturas del tronco encefálico). Fueron estas señales las que coincidieron estrechamente con las ondas cerebrales humanas.

Los investigadores eligieron un tipo de arquitectura de red neuronal conocida como red generativa antagónica (GAN), inventada originalmente en 2014 para generar imágenes.

En este estudio, el discriminador fue entrenado inicialmente en una colección de sonidos en inglés o español. Luego, el generador, que nunca escuchó esos sonidos, tuvo que encontrar una manera de producirlos. Comenzó haciendo sonidos aleatorios, pero después de unas 40,000 rondas de interacciones con el discriminador, el generador mejoró, produciendo finalmente los sonidos adecuados. Como resultado de esta capacitación, el discriminador también mejoró en la distinción entre reales y generados.

Fue en este punto, después de que el discriminador estaba completamente entrenado, que los investigadores le tocaron los sonidos «bah». El equipo midió las fluctuaciones en los niveles de actividad promedio de las neuronas artificiales del discriminador, que produjeron la señal tan similar a las ondas cerebrales humanas.

El experimento también reveló otro paralelismo interesante entre humanos y máquinas. Las ondas cerebrales mostraron que los participantes de habla inglesa y española escucharon el sonido «bah» de manera diferente (los hispanohablantes escucharon más de un «pah»), y las señales de GAN también mostraron que la red entrenada en inglés procesó los sonidos de manera algo diferente a la entrenada en español.

«Ahora estamos tratando de ver hasta dónde podemos llegar, qué tan cerca del lenguaje humano podemos llegar con las neuronas de propósito general», dijo Beguš. «¿Podemos llegar a niveles humanos de rendimiento con las arquitecturas computacionales que tenemos, simplemente haciendo que nuestros sistemas sean más grandes y más potentes, o eso nunca será posible?» Si bien se necesita más trabajo antes de que podamos saberlo con certeza, dijo, «estamos sorprendidos, incluso en esta etapa relativamente temprana, por lo similar que parece ser el funcionamiento interno de estos sistemas, humanos y ANN».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Topics
SpaceX, Tesla y xAI: el plan de Elon Musk para fusionar su imperio
Elon Musk

SpaceX, Tesla y la firma de inteligencia artificial xAI están en el centro de un ambicioso plan de reordenamiento corporativo dentro del ecosistema de empresas de Elon Musk. Según reportes de Bloomberg y Reuters, SpaceX estudia dos escenarios principales: una fusión con Tesla o una combinación con xAI, que a su vez es dueña de la red social X.

En el caso de un acuerdo SpaceX–xAI, las acciones de la startup de IA se intercambiarían por títulos de SpaceX, en un movimiento que se baraja antes de una salida a bolsa prevista para mediados de 2026. Distintos informes señalan que el fabricante de cohetes aspira a recaudar hasta 50.000 millones de dólares con una valoración cercana a 1,5 billones de dólares, lo que convertiría su IPO en una de las mayores de la historia.

Read more
Mercado Libre vs. Temu: la guerra legal que divide el e-commerce latino
Mercado Libre

A finales de enero de 2026, una batalla comercial que se gestaba desde hacía meses llegó a la más alta instancia judicial argentina. La Corte Suprema de Justicia debe resolver quién tiene competencia para zanjar el conflicto entre Mercado Libre, el unicornio de origen argentino fundado por Marcos Galperin, y Temu, la plataforma china de comercio electrónico que revolucionó las compras online en América Latina con estrategias comerciales agresivas y precios prácticamente imposibles de competir.

Lo que parecería ser una simple disputa comercial entre dos competidores es, en realidad, un choque civilizatorio entre dos modelos de negocio radicalmente distintos: el e-commerce tradicional regulado versus el modelo asiático de crecimiento exponencial a través de marketing masivo y ofertas que desafían toda lógica económica.

Read more
Gafas inteligentes espían y fotografían mujeres: una amenaza creciente
Photography, Face, Head

Un fenómeno preocupante ha emergido en redes sociales, donde hombres utilizan sofisticadas gafas inteligentes equipadas con cámaras ocultas para registrar interacciones con mujeres sin autorización, compartiendo posteriormente los vídeos como contenido de "seducción callejera" ante audiencias de millones de personas.

La experiencia de Kassy Zanjani, una trabajadora social de 25 años en Vancouver, ejemplifica este problema. Tras rechazar los avances de un extraño en un restaurante de comida rápida, descubrió una semana después que había sido grabada mediante gafas inteligentes. El vídeo había sido publicado en Instagram y visto por miles de personas, sin su conocimiento ni consentimiento. Así lo contó en el medio The Independent.

Read more