La inteligencia artificial (IA) se ha estado moviendo a una velocidad increíble en los últimos meses, con el lanzamiento de varias herramientas y bots como ChatGPT de OpenAI, Google Bard y más. Sin embargo, este rápido desarrollo está causando una gran preocupación entre los veteranos experimentados en el campo de la IA, tanto que más de 1,000 de ellos han firmado una carta abierta pidiendo a los desarrolladores de IA que pisen el freno.
La carta fue publicada en el sitio web del Future of Life Institute, una organización cuya misión declarada es «dirigir la tecnología transformadora para beneficiar la vida y alejarla de los riesgos extremos a gran escala». Entre los firmantes se encuentran varios académicos prominentes, el cofundador de Apple, Steve Wozniak, y el CEO de Twitter, Elon Musk.
El artículo pide a todas las empresas que trabajan en modelos de IA que son más potentes que el GPT-4 recientemente lanzado que detengan inmediatamente el trabajo durante al menos seis meses. Esta moratoria debería ser «pública y verificable» y daría tiempo para «desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que sean rigurosamente auditados y supervisados por expertos externos independientes».
La carta dice que esto es necesario porque «los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad». Esos riesgos incluyen la difusión de propaganda, la destrucción de empleos, el reemplazo potencial y la obsolescencia de la vida humana, y la «pérdida de control de nuestra civilización». Los autores agregan que la decisión sobre si seguir adelante en este futuro no debe dejarse en manos de «líderes tecnológicos no elegidos».
IA «para el claro beneficio de todos»
La carta llega justo después de que se hicieran afirmaciones de que GPT-5, la próxima versión de la tecnología que impulsa ChatGPT, podría lograr inteligencia general artificial. Si es correcto, eso significa que sería capaz de entender y aprender cualquier cosa que un humano pueda comprender. Eso podría hacerlo increíblemente poderoso en formas que aún no se han explorado por completo.
Además, la carta sostiene que la planificación y gestión responsables en torno al desarrollo de sistemas de IA no está sucediendo, «a pesar de que en los últimos meses se ha visto a los laboratorios de IA atrapados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable».
En cambio, la carta afirma que se deben crear nuevos sistemas de gobernanza que regulen el desarrollo de la IA, ayuden a las personas a distinguir el contenido creado por la IA y el creado por humanos, responsabilicen a los laboratorios de IA por cualquier daño que causen, permitan a la sociedad hacer frente a la interrupción de la IA (especialmente a la democracia) y más.
Los autores terminan con una nota positiva, afirmando que «la humanidad puede disfrutar de un futuro floreciente con IA … en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y damos a la sociedad la oportunidad de adaptarse». Hacer una pausa en sistemas de IA más potentes que GPT-4 permitiría que esto sucediera, afirman.
¿Tendrá la carta el efecto deseado? Eso es difícil de decir. Claramente hay incentivos para que los laboratorios de IA continúen trabajando en modelos avanzados, tanto financieros como de reputación. Pero con tantos riesgos potenciales, y con muy poca comprensión de ellos, los autores de la carta claramente sienten que esos incentivos son demasiado peligrosos para perseguirlos.