Consciente de los peligros y fascinaciones de su invento, el CEO de OpenAI, Sam Altman, dio una entrevista a ABC News, para referirse a la IA y la reciente incorporación de GPT-4.
En la oportunidad, Altman cree que están detrás de algo a lo que debemos temer, a pesar de todos sus beneficios.
Él cree que viene con peligros reales, pero también puede ser «la mayor tecnología que la humanidad ha desarrollado hasta ahora» para mejorar drásticamente nuestras vidas.
«Tenemos que tener cuidado aquí», dijo Sam Altman, CEO de OpenAI. «Creo que la gente debería estar feliz de que tengamos un poco de miedo de esto».
En su entrevista, Altman fue enfático en que OpenAI necesita que tanto los reguladores como la sociedad se involucren lo más posible con el lanzamiento de ChatGPT, insistiendo en que la retroalimentación ayudará a disuadir las posibles consecuencias negativas que la tecnología podría tener en la humanidad. Agregó que está en «contacto regular» con funcionarios del gobierno.
«Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala», dijo Altman. «Ahora que están mejorando en la escritura de código informático, [ellos] podrían ser utilizados para ataques cibernéticos ofensivos».
Un miedo común de ciencia ficción que Altman no comparte: modelos de IA que no necesitan humanos, que toman sus propias decisiones y planean la dominación mundial.
«Espera a que alguien le dé una opinión», dijo Altman. «Esta es una herramienta que está muy bajo control humano».
Sin embargo, dijo que teme qué humanos podrían tener el control. «Habrá otras personas que no pongan algunos de los límites de seguridad que nosotros imponemos», agregó. «La sociedad, creo, tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo».
«Lo que más trato de advertir a la gente es lo que llamamos el ‘problema de las alucinaciones'», dijo Altman. «El modelo declarará con confianza las cosas como si fueran hechos completamente inventados».
«La forma correcta de pensar en los modelos que creamos es un motor de razonamiento, no una base de datos de hechos», dijo Altman. «También pueden actuar como una base de datos de hechos, pero eso no es realmente lo especial de ellos, lo que queremos que hagan es algo más cercano a la capacidad de razonar, no de memorizar».
«Una cosa que sí me preocupa es … no vamos a ser el único creador de esta tecnología», dijo Altman. «Habrá otras personas que no pongan algunos de los límites de seguridad que le imponemos».
Entre las preocupaciones de las capacidades destructivas de esta tecnología está la sustitución de puestos de trabajo. Altman dice que esto probablemente reemplazará algunos trabajos en el futuro cercano, y le preocupa lo rápido que podría suceder.
«Creo que durante un par de generaciones, la humanidad ha demostrado que puede adaptarse maravillosamente a los principales cambios tecnológicos», dijo Altman. «Pero si esto sucede en un número de años de un solo dígito, algunos de estos cambios … Esa es la parte que más me preocupa».