El CEO de Tesla, Elon Musk, acudió el lunes a su plataforma de redes sociales X (antes Twitter) para quejarse de la integración recientemente anunciada de ChatGPT de OpenAI en Apple iOS (y más específicamente, Siri), difamando el sistema de aprendizaje automático como «spyware espeluznante«. Durante la cena MPW de Fortune el martes por la noche, la directora de tecnología de OpenAI, Mira Murati, refutó las acusaciones de Musk.
«Esa es su opinión. Obviamente no lo creo», dijo a la audiencia. «Nos preocupamos profundamente por la privacidad de nuestros usuarios y la seguridad de nuestros productos».
La disputa se deriva de la nueva asociación de Apple con OpenAI, fabricante de ChatGPT, que se anunció durante la WWDC 2024 el lunes. La asociación hará que ChatGPT se integre en Siri, manejando las consultas de los usuarios que superan las capacidades de la IA integrada de Apple. En esencia, la integración de Siri actuará como una llamada a la API, observó el desarrollador de software Dylan McDonald, diciendo que «es básicamente lo mismo que usar la aplicación ChatGPT».
La tecnología de OpenAI tendrá que integrarse en iOS «para que pueda usarse con una serie de servicios de Apple», informa Fortune. Sin embargo, Apple dejó claro durante el anuncio del lunes que no compartirá los datos de los usuarios con OpenAI, ni OpenAI entrenará sus modelos con los datos de los usuarios de Apple. Esta IA difiere de Apple Intelligence, que también debutó el lunes. Apple Intelligence ejecuta sus propios modelos y opera en una nube informática segura y privada separada de la nube pública que utiliza OpenAI.
Musk, quien cofundó OpenAI, pero luego dejó la compañía para fundar su rival xAI, incluso amenazó con prohibir a los empleados de todas sus empresas usar productos de Apple en sus trabajos, incluidos iPhones y Macs, en respuesta al anuncio de la asociación. «Apple no tiene ni idea de lo que realmente está sucediendo una vez que entregan sus datos a OpenAI. Te están vendiendo río abajo», escribió Musk en X.
«Estamos tratando de ser lo más transparentes posible con el público», dijo Murati el martes. «El mayor riesgo es que las partes interesadas malinterpreten la tecnología».