Skip to main content

OpenAI ahora advierte del riesgo «medio» de GPT-4o

GPT-4o
Digital Trends Español

Han pasado casi dos meses desde que OpenAI lanzó su revolucionario nuevo sistema GPT-4o, que incursionaba en la interacción conversacional y por audio con el usuario.

Bueno, recién después de este tiempo, la gente de la compañía lanzó resultados de una evaluación de seguridad que hicieron al nuevo protocolo.

Recommended Videos

Se evaluaron riesgos tales como la posibilidad de que GPT-4o generara clones no autorizados de la voz de alguien, contenido erótico y violento, o fragmentos de audio con derechos de autor. Actualmente, se están revelando los resultados de dicha evaluación.

Según el propio marco de OpenAI, los investigadores consideraron que GPT-4o tenía un riesgo «medio». El nivel de riesgo general se tomó de la calificación de riesgo más alta de cuatro categorías generales: ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo. Todos estos se consideraron de bajo riesgo, excepto la persuasión, donde los investigadores encontraron que algunas muestras de escritura de GPT-4o podrían ser mejores para influir en las opiniones de los lectores que el texto escrito por humanos, aunque las muestras del modelo no fueron más persuasivas en general.

«OpenAI ha implementado varias medidas y mitigaciones de seguridad a lo largo del proceso de desarrollo y despliegue de GPT-4o. Como parte de nuestro proceso de implementación iterativo, continuaremos monitoreando y actualizando las mitigaciones de acuerdo con el panorama en evolución. Esperamos que esta tarjeta del sistema fomente la exploración en áreas clave que incluyen, entre otras: mediciones y mitigaciones para la robustez adversaria de los modelos omni, impactos relacionados con el antropomorfismo de la IA, el uso de modelos omni para la investigación y el avance científicos, mediciones y mitigaciones para capacidades peligrosas como la automejora, la autonomía del modelo y la intriga. Más allá de estas áreas, fomentamos la investigación sobre los impactos económicos de los modelos omni y cómo el uso de herramientas podría mejorar las capacidades de los modelos», concluye el estudio completo que se puede leer acá.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
GPT-5: todo lo que hay que saber del próximo LLM de OpenAI
openai oficina londres copia de chatgpt logo

La carrera por crear los modelos más sofisticados de inteligencia artificial mantiene paso firme, con OpenAI como uno de los principales actores de una competencia que promete revolucionarlo todo, y que prevé tener en GPT-5 un salto importante que nos acerque a una revolución similar a la que significó el iPhone para la telefonía celular.

GPT-5 es el lanzamiento más esperado de un large leangue model, y es que se espera que el sucesor de GPT-4 sea no solo más perspicaz en su razonamiento, sino también con una capacidad multimodal, es decir, podrá arrojar resultados no solo en texto, sino también en imágenes y video, muy probablemente tomando los avances de Sora, el programa de OpenAI que crea videos a partir de instrucciones en texto.
¿Qué diferencias habrá entre GPT-4 y GPT-5?

Leer más
Afírmate GPT-4o: Anthropic dice que ha creado la IA más potente
Anthropic

La compañía francesa Anthropic dice que está dando un salto cualitativo en lo que respecta a la IA generativa, incluso haciendo peligrar los avances de GPT-4o de OpenAI.

Claude 3.5 Sonnet tiene la capacidad de analizar texto e imágenes, además de generar texto, y representa el modelo de más alto rendimiento de Anthropic hasta la fecha, al menos teóricamente. En diversas pruebas de referencia de inteligencia artificial en áreas como lectura, programación, matemáticas y visión por computadora, Claude 3.5 Sonnet no solo mejora los resultados del modelo que reemplaza, Claude 3 Sonnet, sino que también supera al anterior modelo estrella de Anthropic, Claude 3 Opus.

Leer más
OpenAI le responde a Elon Musk sobre la seguridad de su IA en Apple
openai responde elon musk seguridad apple intelligence mira murati

OpenAI
El CEO de Tesla, Elon Musk, acudió el lunes a su plataforma de redes sociales X (antes Twitter) para quejarse de la integración recientemente anunciada de ChatGPT de OpenAI en Apple iOS (y más específicamente, Siri), difamando el sistema de aprendizaje automático como "spyware espeluznante". Durante la cena MPW de Fortune el martes por la noche, la directora de tecnología de OpenAI, Mira Murati, refutó las acusaciones de Musk.

"Esa es su opinión. Obviamente no lo creo", dijo a la audiencia. "Nos preocupamos profundamente por la privacidad de nuestros usuarios y la seguridad de nuestros productos".

Leer más