Durante todo 2024 no escuché hablar de otra cosa que no fuera inteligencia artificial. Leí y escuché a tantos líderes tecnológicos hablar de IA —la principal característica del iPhone 16 es Apple Intelligence— que hasta decidí probar las herramientas de las que todos hablan (bueno, probé ChatGPT y Copilot) para saber qué tanto podía incorporarlas a mi trabajo diario (me ayudaron, pero no me parecen la panacea).
Digamos que me siento más cerca de las críticas de Linus Torvalds que del entusiasmo de Sam Altman. Y el problema, al menos para quienes impulsan esta tecnología, es que dentro de la misma industria tecnológica tampoco parece haber un entusiasmo desmedido, según apunta un estudio realizado por Edelman Data & Intelligence y AMD a 2,500 tomadores de decisiones en el rubro de tecnologías de la información en Estados Unidos, Reino Unido, Alemania, Francia y Japón.
Según el estudio, el 52% de los tecnólogos encuestados ni siquiera ha usado una app de procesamiento de lenguaje. Es decir, más de la mitad no se ha asomado ni por curiosidad a probar, al menos, el “juguete” estrella de la IA. Y solo el 19% dijo que sus compañías priorizará el uso de IA el siguiente año, con 44% diciendo que esa priorización ocurrirá entre los próximos 1 o 5 años.
Parte del problema, dice el estudio promovido por AMD, es que las organizaciones creen que el uso de IA traerá problemas de seguridad. “El temor es que la información que se carga a OpenAI, por ejemplo, acabe en manos de competidores o de ciberdelincuentes”, dice a Digital Trends en Español Hiram Monroy, director comercial de AMD Latinoamérica Hispana.
Los chatbots de inteligencia artificial, como Copilot de Microsoft o ChatGPT, pueden recibir información de los usuarios para realizar distintas acciones. Yo, por ejemplo, le proporcioné el audio de la entrevista que hice a Hiram Monroy para que realizara una transcripción. “Obviamente esto hace que se identifique un hueco de seguridad”, dice Monroy en relación a la posibilidad de que empleados de tal o cual empresa suban reportes confidenciales para facilitar su análisis usando herramientas de IA.
Pero hay una solución
Monroy recuerda que empresas como Microsoft han adaptado herramientas como Copilot Plus para que la información enviada al chatbot sea procesada dentro del equipo o la red de la empresa, y bajo mecanismos de seguridad que garantizan que los datos no puedan ser vulnerados. “Se está transicionando hacia estos modelos, se están tomando más medidas de seguridad para garantizar su fiabilidad”, redondea Monroy.
“En AMD trabajamos para facilitar el poder de cómputo necesario para los servidores que almacenan esa información en las PC, nuestro portafolio cubre la inteligencia artificial durante todo su ciclo de vida”, destaca Monroy a propósito de la presentación de los AMD Ryzen AI Serie 300, procesadores cuya NPU alcanza hasta los 50 TOPS y que garantizan un rendimiento óptimo en aplicaciones de IA ejecutadas desde el dispositivo.