Skip to main content

¿De qué se trata el proyecto secreto Q* de una IA mortal para la humanidad?

Imagen utilizada con permiso del titular de los derechos de autor

Se van despejando las incógnitas respecto a las razones que habrían gatillado la petición de salida de Sam Altman de OpenAI, ya que se filtró hace unas horas que una carta de la junta directiva puso en evidencia un proyecto secreto que estaba trabajando el equipo del destituido y luego retornado CEO, de una IA muy poderosa capaz de dañar la integridad de la humanidad: el proyecto Q*.

Según una de las fuentes, la veterana ejecutiva Mira Murati mencionó el proyecto, llamado Q* (pronunciado Q-Star), a los empleados el miércoles y dijo que se había enviado una carta al consejo antes de los acontecimientos del reciente fin de semana.

Recommended Videos

Tras la publicación de la noticia, una portavoz de OpenAI dijo que Murati había comunicado a los empleados lo que los medios iban a informar, pero no hizo comentarios sobre la exactitud de la información.

De qué se trata exactamente Q*

Q* fue descrita como una superinteligencia (AGI), según dos fuentes cercanas al directorio de OpenAI citadas por Reuters, y este adjetivo tenía concordancia con sus capacidades.

El nuevo modelo, dotado de vastos recursos informáticos, fue capaz de resolver algunos problemas matemáticos, dijo la persona bajo condición de anonimato por no estar autorizada a hablar en nombre de la empresa.

Si bien solo resuelve operaciones matemáticas para estudiantes de primaria, el hecho de superar estas pruebas hace que los investigadores sean muy optimistas sobre el futuro éxito de Q*, según la fuente.

Imagen utilizada con permiso del titular de los derechos de autor

Como sostiene Reuters: «Lograr la capacidad de hacer cálculos matemáticos —donde solo hay una respuesta correcta— implica que la IA tendría una mayor capacidad de razonamiento, que semejaría a la inteligencia humana. Esto podría aplicarse, por ejemplo, a nueva investigación científica, creen los investigadores de la IA. A diferencia de una calculadora que puede resolver un número limitado de operaciones, la IAG puede generalizar, aprender y comprender».

Que decía Sam Altman de los peligros de la IA

En junio de este 2023, Sam Altman se refirió a los peligros de la IA y describió que una agencia nuclear debería visar estos proyectos a futuro, como la Agencia Internacional de Energía Atómica de la ONU.

«El desafío que tiene el mundo es cómo vamos a manejar esos riesgos y asegurarnos de que aún podamos disfrutar de esos tremendos beneficios. Nadie quiere destruir el mundo».

La AGI, inteligencia artificial general, también fue abordada por Altman en un comunicado hace meses en OpenAI.

Las AGI son «capaces de elevar a la humanidad, aumentando la abundancia y el descubrimiento de nuevos conocimientos científicos«. Según la empresa, esto significa que todo el mundo puede tener acceso y ayuda con «casi cualquier tarea cognitiva«.

En la misma publicación, escrita por Altman y con fecha de febrero de 2023, el CEO acepta que las AGI pueden «ocurrir pronto o en un futuro lejano«. Por lo tanto, se debe gestionar una transición gradual para «experimentar los beneficios y las desventajas de los sistemas» y llegar a acuerdos sobre cómo se deben gobernar estos sistemas.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Netflix explica cómo interviene la IA para el éxito de sus series
una persona mira netflix en una tableta con los códigos secretos de netflix

Ningún título de Netflix es fortuito: detrás tiene una gran investigación y el uso del aprendizaje automático para determinar su éxito, así lo dice la misma compañía de Los Gatos, California.

Reconoce que en el proceso hay mucho en juego, ya que las producciones y el contenido original no son nada baratos. "Los ejecutivos de la industria del entretenimiento siempre han consultado datos históricos para ayudar a caracterizar a la posible audiencia de un título utilizando producciones comparables, si existen", precisa.

Leer más
El Pentágono y los principios éticos de la IA para la guerra
Pentágono Estados Unidos

Hace ya bastante tiempo que potencias mundiales como Estados Unidos está adoptando Inteligencia Artificial para situaciones de crisis, utilizando esta IA para conflictos armados, rastreando enemigos y usando tecnología para ataques.

Sin embargo, aún no hay regulaciones claras respecto de como las Fuerzas Armadas pueden utilizar esta IA para la guerra. Por eso, en el Pentágono quieren tomar cartas en el asunto, para que los soldados "ejerzan niveles apropiados de juicio y cuidado" con estas plataformas.

Leer más
ChatGPT se pone unos carísimos pantalones largos: anuncia versión Pro
chatgpt pro precio caracteristicas funciones solen feyissa gzyelvkomi0 unsplash

Este jueves 5 de diciembre, OpenAI acaba de anunciar su versión más avanzada y premium para clientes, se trata de ChatGPT Pro, que "resolverá problemas cada vez más complejos y críticos. También se necesita una cantidad significativamente mayor de computación para potenciar estas capacidades".

De todas maneras, OpenAI casi inmediatamente coloca un filtro de por qué la suscripción es carísima y quienes son los potenciales usuarios a la que va dirigida.

Leer más