ChatGPT aún no es tan inteligente como para encontrar sus propios defectos, por lo que su creador está recurriendo a los humanos en busca de ayuda.
OpenAI dio a conocer un programa de recompensas de errores el martes, alentando a las personas a localizar e informar vulnerabilidades y errores en sus sistemas de inteligencia artificial, como ChatGPT y GPT-4.
En una publicación en su sitio web que describe los detalles del programa, OpenAI dijo que las recompensas por informes oscilarán entre $ 200 por hallazgos de baja gravedad y hasta $ 20,000 por lo que llamó «descubrimientos excepcionales».
La compañía respaldada por Microsoft dijo que su ambición es crear sistemas de inteligencia artificial que «beneficien a todos», y agregó: «Con ese fin, invertimos mucho en investigación e ingeniería para garantizar que nuestros sistemas de inteligencia artificial sean seguros y protegidos. Sin embargo, como con cualquier tecnología compleja, entendemos que pueden surgir vulnerabilidades y fallas».
Dirigiéndose a los investigadores de seguridad interesados en involucrarse en el programa, OpenAI dijo que reconocía «la importancia crítica de la seguridad y lo ve como un esfuerzo de colaboración. Al compartir sus hallazgos, desempeñará un papel crucial para hacer que nuestra tecnología sea más segura para todos».
Con más y más personas que toman ChatGPT y otros productos OpenAI para dar una vuelta, la compañía está dispuesta a rastrear rápidamente cualquier problema potencial para garantizar que los sistemas funcionen sin problemas y evitar que cualquier debilidad sea explotada con fines nefastos. Por lo tanto, OpenAI espera que al involucrarse con la comunidad tecnológica pueda resolver cualquier problema antes de que se convierta en problemas más serios.
La compañía con sede en California ya ha tenido un susto en el que una falla expuso los títulos de las conversaciones de algunos usuarios cuando deberían haber permanecido en privado.
Sam Altman, CEO de OpenAI, dijo después del incidente del mes pasado que consideraba el percance de privacidad un «problema significativo», y agregó: «Nos sentimos muy mal por esto». Ahora se ha solucionado.
El error se convirtió en un problema mayor para OpenAI cuando Italia expresó serias preocupaciones sobre la violación de la privacidad y decidió prohibir ChatGPT mientras lleva a cabo una investigación exhaustiva. Las autoridades italianas también están exigiendo detalles de las medidas que OpenAI pretende tomar para evitar que vuelva a suceder.