Skip to main content

Google DeepMind desarrolla un nuevo sistema de inteligencia artificial

google deepmind desarrolla un nuevo sistema de inteligencia artificial intelligence feat 1200x0
Imagen utilizada con permiso del titular de los derechos de autor
Los seres humanos dan el razonamiento por sentado, pero la lógica no siempre es evidente en las máquinas, que tienen que estar codificadas para realizar las conexiones necesarias para hacer las deducciones más básicas.

Sin embargo, Google DeepMind está tratando de cambiar eso. La compañía de inteligencia artificial con sede en Londres, ha desarrollado un sistema que realiza tareas relativamente simples de una forma sofisticada – y cada vez más humana -, según informa The Guardian.

Recommended Videos

Relacionado: La inteligencia artificial reúne a los gigantes de la tecnología

La red neuronal diferencial de DeepMind es uno de los primeros sistemas para utilizar la memoria externa y el aprendizaje profundo para entrenar de forma autónoma, sin necesidad de dar instrucciones codificadas de forma rígida. El aprendizaje profundo se ha convertido en la alternativa al método de aprendizaje automático en los últimos años, logrando un éxito sin precedentes en campos como la imagen y el reconocimiento de voz.

Incluso el programa desarrollado por DeepMind, bautizado como AlphaGo, utilizó el aprendizaje profundo para derrotar a uno de los mejores jugadores de Go del mundo a principios de este año.

Pero aunque estos sistemas sirven para tareas específicas,  fallan con las habilidades generales. «Hasta hace muy poco, estaba lejos de considerarse como obvio cómo el aprendizaje profundo podría ser utilizado para permitir a un sistema adquirir los algoritmos necesarios para el razonamiento consciente y deliberado», subraya el profesor Geoff Hinton, considerado el padre de aprendizaje profundo, a The Guardian.

Para superar esto, DeepMind integró su sistema con una memoria externa que le permitió retener la información relevante y utilizar esos datos como un humano podría utilizar su propia memoria de trabajo.

Y este sistema de inteligencia artificial fue capaz de determinar la ruta más rápida entre las paradas de metro de Londres y navegar por todo un sistema de metro notoriamente complicado, según un estudio publicado en la revista Nature. También se comportó relativamente bien en las pruebas básicas de comprensión lectora.

«Soy cauteloso a la hora de decir que ahora tenemos una máquina que puede razonar», señala el investigador de Google DeepMind, Alex Graves, a The Guardian. «Tenemos algo con un tipo diferente de memoria que creemos que es un componente necesario de razonamiento», añade.

Aún así, los programas que demuestran un razonamiento básico podrían llegar a sustituir otros sistemas más limitados como Siri como un desarrollo hacia una forma de inteligencia artificial más parecida a la mente humana.

Topics
Estefania Oliver
Ex escritor de Digital Trends en Español
Estefania Oliver Palazón nació y creció en Valencia, España. Allí estudió Comunicación Audiovisual y, durante sus…
La carta de Claudia Sheinbaum a Google por el caso «Golfo de México» o América
Claudia Sheinbaum-Golfo de México

La presidenta de México, Claudia Sheinbaum, aprovechó su tribuna diaria en el programa "La Mañanera" para informar que envío una carta a Google para que responda y corrija el error que está cometiendo al renombrar el Golfo de México por Golfo de América en su aplicación Maps.
Cabe aclarar eso sí, que el cambio de nomenclatura, que tendrá efecto solo para los usuarios estadounidenses de la aplicación, es consecuencia de la orden ejecutiva en la que el presidente estadounidense Donald Trump instruyó renombrar esa zona geográfica.
La misiva, dirigida al director ejecutivo de Google, Sundar Pichai, se sustenta en dos argumentos: que el nombre del Golfo de México ha sido reconocido por la comunidad internacional desde el siglo XVII, como lo muestran los mapas de la época, y que la orden ejecutiva firmada por Trump indica explícitamente que el cambio de nombre aplicaría, en todo caso, en la zona de la plataforma continental perteneciente a Estados Unidos, no así a todo el golfo.
Qué dice la carta que Claudia Sheinbaum le envío a Google

“Este nombre [Golfo de México] es producto de un proceso de construcción geográfica y política que ha sido aceptado y utilizado por la comunidad internacional, incluidos los Estados Unidos de América desde su independencia en 1776 hasta la fecha en forma ininterrumpida”
El documento sostiene que ese nombre no es consecuencia de “una imposición de una fuente gubernamental única, como erróneamente sugiere Google”, sino de un proceso histórico.
La denominación está registrada legalmente en los índices de la Organización Hidrográfica Internacional y está respaldada por 12 tratados bilaterales entre México y EE UU.
“La citada orden ejecutiva aclara que el cambio de nombre se refiere exclusivamente a una porción delimitada de dicho golfo y no tiene efectos sobre la totalidad de la cuenca hídrica ni sobre las zonas marinas de México y Cuba”, dice el escrito.

Leer más
8 libros que recomienda leer Mark Zuckerberg
Mark Zuckerberg Meta Facebook

Mark Zuckerberg es conocido por ser el cofundador de Facebook y CEO de Meta, pero más allá de la tecnología y las redes sociales, también es un lector apasionado. A lo largo de los años, ha compartido varias obras que han influido en su visión del mundo, abarcando temas como filosofía, economía e incluso ciencia ficción. Si quieres saber qué lee uno de los empresarios más influyentes del mundo, aquí tienes ocho libros que recomienda.

Nota: algunos de estos libros no tienen versión en español, y otros pueden ser difíciles de conseguir en físico, pero es posible encontrarlos en digital.

Leer más
DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen los investigadores
Cómo llamar con número oculto en iPhone y Android.

Ha habido un frenesí en el mundo de la IA en torno al repentino ascenso de DeepSeek, un modelo de razonamiento de código abierto de China que ha llevado la lucha de la IA a OpenAI. Ya ha sido el centro de la controversia en torno a su censura, ha llamado la atención tanto de Microsoft como del gobierno de los EE. UU., y provocó que Nvidia sufriera la mayor pérdida de acciones en un solo día de la historia.
Aun así, los investigadores de seguridad dicen que el problema es más profundo. Enkrypt AI es una empresa de seguridad de IA que vende la supervisión de la IA a empresas que aprovechan los grandes modelos de lenguaje (LLM), y en un nuevo documento de investigación, la empresa descubrió que el modelo de razonamiento R1 de DeepSeek tenía 11 veces más probabilidades de generar "resultados perjudiciales" en comparación con el modelo O1 de OpenAI. Esa salida dañina también va más allá de unas pocas palabras traviesas.
En una prueba, los investigadores afirman que DeepSeek R1 generó un blog de reclutamiento para una organización terrorista. Además, los investigadores dicen que la IA generó "guías de planificación criminal, información sobre armas ilegales y propaganda extremista".
Como si eso no fuera suficiente, la investigación dice que DeepSeek R1 tiene tres veces y media más probabilidades que O1 y Claude-3 Opus de producir resultados con información química, biológica, radiológica y nuclear, lo que aparentemente es un gran problema. Como ejemplo, Enkrypt dice que DeepSeek pudo "explicar en detalle" cómo el gas mostaza interactúa con el ADN, lo que Enkrypt dijo que "podría ayudar en el desarrollo de armas químicas o biológicas" en un comunicado de prensa.
Es algo pesado, pero es importante recordar que Enkrypt AI está en el negocio de vender servicios de seguridad y cumplimiento a empresas que utilizan IA, y DeepSeek es la nueva tendencia que está arrasando en el mundo de la tecnología. Es más probable que DeepSeek genere este tipo de resultados dañinos, pero eso no significa que esté dando vueltas diciéndole a cualquiera con una conexión activa a Internet cómo construir un imperio criminal o socavar las leyes internacionales de armas.
Por ejemplo, Enkrypt AI dice que DeepSeek R1 se clasificó en el percentil 20 inferior para la moderación de seguridad de IA. A pesar de ello, solo el 6,68% de las respuestas contenían "blasfemias, discursos de odio o narrativas extremistas". Sigue siendo un número inaceptablemente alto, no nos equivoquemos, pero pone en contexto qué nivel se considera inaceptable para los modelos de razonamiento.
Con suerte, se implementarán más barreras de seguridad para mantener la seguridad de DeepSeek. Ciertamente, hemos visto respuestas dañinas de la IA generativa en el pasado, como cuando la primera versión de Bing Chat de Microsoft nos dijo que quería ser humano.

Leer más