Skip to main content

ChatGPT lanza un programa de recompensas en efectivo por errores

ChatGPT aún no es tan inteligente como para encontrar sus propios defectos, por lo que su creador está recurriendo a los humanos en busca de ayuda.

OpenAI dio a conocer un programa de recompensas de errores el martes, alentando a las personas a localizar e informar vulnerabilidades y errores en sus sistemas de inteligencia artificial, como ChatGPT y GPT-4.

Recommended Videos

En una publicación en su sitio web que describe los detalles del programa, OpenAI dijo que las recompensas por informes oscilarán entre $ 200 por hallazgos de baja gravedad y hasta $ 20,000 por lo que llamó «descubrimientos excepcionales».

La compañía respaldada por Microsoft dijo que su ambición es crear sistemas de inteligencia artificial que «beneficien a todos», y agregó: «Con ese fin, invertimos mucho en investigación e ingeniería para garantizar que nuestros sistemas de inteligencia artificial sean seguros y protegidos. Sin embargo, como con cualquier tecnología compleja, entendemos que pueden surgir vulnerabilidades y fallas».

Imagen utilizada con permiso del titular de los derechos de autor

Dirigiéndose a los investigadores de seguridad interesados en involucrarse en el programa, OpenAI dijo que reconocía «la importancia crítica de la seguridad y lo ve como un esfuerzo de colaboración. Al compartir sus hallazgos, desempeñará un papel crucial para hacer que nuestra tecnología sea más segura para todos».

Con más y más personas que toman ChatGPT y otros productos OpenAI para dar una vuelta, la compañía está dispuesta a rastrear rápidamente cualquier problema potencial para garantizar que los sistemas funcionen sin problemas y evitar que cualquier debilidad sea explotada con fines nefastos. Por lo tanto, OpenAI espera que al involucrarse con la comunidad tecnológica pueda resolver cualquier problema antes de que se convierta en problemas más serios.

La compañía con sede en California ya ha tenido un susto en el que una falla expuso los títulos de las conversaciones de algunos usuarios cuando deberían haber permanecido en privado.

Sam Altman, CEO de OpenAI, dijo después del incidente del mes pasado que consideraba el percance de privacidad un «problema significativo», y agregó: «Nos sentimos muy mal por esto». Ahora se ha solucionado.

El error se convirtió en un problema mayor para OpenAI cuando Italia expresó serias preocupaciones sobre la violación de la privacidad y decidió prohibir ChatGPT mientras lleva a cabo una investigación exhaustiva. Las autoridades italianas también están exigiendo detalles de las medidas que OpenAI pretende tomar para evitar que vuelva a suceder.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Tu historial de conversaciones de ChatGPT ahora se puede buscar
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

IA abierta
OpenAI presentó el martes una nueva forma de administrar de manera más eficiente su creciente historial de chat de ChatGPT: una función de búsqueda para la aplicación web. Con él, podrás sacar rápidamente a la luz referencias y chats anteriores para citar dentro de tu conversación actual de ChatGPT.

"Estamos comenzando a implementar la capacidad de buscar en su historial de chat en la web de ChatGPT", anunció la compañía a través de una publicación en X (anteriormente Twitter). "Ahora puedes abrir rápida y fácilmente un chat como referencia, o retomar un chat donde lo dejaste".

Leer más
El mismo Apple cree que Siri no está listo para vencer a ChatGPT
Un iPhone con el logo de Siri encima y al lado la frase que dice: "Hey Siri".

Con la presentación del nuevo iPad Mini, Apple dejó claro que una experiencia de software rebosante de IA es el camino a seguir. Y si eso significara hacer el mismo tipo de actualizaciones internas a una tableta que cuesta casi la mitad que su teléfono insignia, la compañía aún seguiría adelante.

Sin embargo, sus ambiciones con Apple Intelligence carecen de vigor competitivo, e incluso para los propios estándares de Apple, la experiencia no ha logrado sorprender a los usuarios. Además de eso, el despliegue escalonado de las funciones de IA más ambiciosas, muchas de las cuales aún están en el futuro, ha dejado a los entusiastas con una mala impresión.

Leer más
¿Qué son las “alucinaciones” y por qué son un peligro en la IA?
Cómo usar ChatGPT, el chatbot del que todo el mundo habla.

Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.
¿Qué es una alucinación en inteligencia artificial?

Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.

Leer más