El nuevo jefe de preparación tendrá como principal mandato anticipar los riesgos emergentes asociados a capacidades fronterizas de sistemas de IA que podrían generar consecuencias graves. La posición responde a preocupaciones públicas sobre el impacto potencial de herramientas como ChatGPT en la salud mental de usuarios, incluyendo demandas por suicidio que han sido interpuestas contra la compañía.
Altman reconoció explícitamente durante 2025 la existencia de «desafíos reales» vinculados al uso de estos modelos, enfatizando particularmente los efectos psicológicos en poblaciones vulnerables. También subrayó la capacidad de estos sistemas para identificar vulnerabilidades críticas en infraestructuras de seguridad, lo que requiere un balance delicado entre transparencia responsable y prevención de usos malintencionados.
La búsqueda de talento refleja un reconocimiento corporativo de que la gobernanza de riesgos debe ocupar un lugar central en la estructura organizacional de empresas de IA de frontera, no como un asunto secundario sino como un componente estratégico fundamental. El rol implica liderazgo técnico de un marco robusto de evaluación de capacidades y respuesta a señales de daño.
Esta medida llega después de diversos cambios en los equipos de seguridad de OpenAI durante el último año. La urgencia expresada en la descripción del puesto—indicando que la persona seleccionada «comenzará sumergida hasta el cuello casi de inmediato»—sugiere que la compañía percibe esta necesidad como operativamente crítica.
La contratación representa tanto una respuesta a presiones públicas como una apuesta interna por institucionalizar procesos de seguridad que puedan escalar con la capacidad de los modelos. Como tecnología de IA se integra más profundamente en educación, trabajo y consumo de información, los riesgos sistémicos se amplifican, haciendo esta posición fundamental para la reputación y sostenibilidad empresarial de OpenAI.