Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Zoom agrega ChatGPT para ayudarlo con las llamadas perdidas

La aplicación de videollamadas Zoom acaba de agregar su propio asistente «AI Companion» que integra inteligencia artificial (IA) y modelos de lenguaje grande (LLM) del fabricante de ChatGPT OpenAI y el propietario de Facebook Meta. La herramienta está diseñada para ayudarlo a ponerse al día con las reuniones que se perdió y diseñar respuestas rápidas a los mensajes de chat.

El desarrollador de Zoom dice que AI Companion «empodera a las personas ayudándolas a ser más productivas, conectarse y colaborar con sus compañeros de equipo y mejorar sus habilidades».

Una persona realizando una llamada de Zoom en una computadora portátil mientras está sentada en un escritorio.
Zoom

Por ejemplo, la publicación del blog de Zoom explica que si llega tarde a una reunión, su AI Companion puede resumir lo que sucedió mientras estaba ausente. También puede sugerir puntos de acción y resaltar temas de discusión después de una reunión, así como dividir las grabaciones en la nube en capítulos más digeribles.

Recommended Videos

Algunas características adicionales están en proceso. Más adelante en septiembre, AI Companion podrá ayudarlo a escribir correos electrónicos y resumir los mensajes de chat, mientras que Zoom dice que sugerirá respuestas a los chats de texto más adelante en el otoño.

Más adelante en el futuro, AI Companion lo ayudará a encontrar documentos, presentar tickets de soporte y prepararse para las próximas reuniones, todo basado en llamadas en vivo o aquellas que han sucedido en el pasado.

Preocupaciones de privacidad

Un usuario en una llamada de Zoom con otros cuatro participantes.
Zoom

Todo eso suena interesante, pero Zoom no es ajeno a la controversia, ya que ha sido llamado por sus engañosas afirmaciones de cifrado de extremo a extremo y su espeluznante tecnología de detección de emociones. Para muchas personas, la idea de integrar una herramienta de IA generativa en sus llamadas confidenciales podría comenzar a sonar las alarmas de privacidad.

Zoom ha tratado de disipar estas preocupaciones diciendo que su AI Companion respetará su privacidad. En su publicación de blog, la compañía afirmó que «Zoom no utiliza ninguno de sus audios, videos, chat, uso compartido de pantalla, archivos adjuntos u otro contenido de comunicación similar al del cliente (como resultados de encuestas, pizarra y reacciones) para entrenar modelos de inteligencia artificial de Zoom o de terceros».

Sin embargo, la compañía se enfrentó a una reacción violenta en agosto de 2023 tras las afirmaciones de que los términos de la aplicación le permitían recopilar datos de usuarios y alimentarlos en herramientas de inteligencia artificial. Zoom luego aclaró los términos para decir que no usó datos de comunicaciones para entrenar su IA, pero aún parece que la aplicación puede recoger «datos generados por servicios», como la telemetría del usuario y los datos de uso del producto. No está claro si algo de esto se destina al entrenamiento de modelos de IA.

AI Companion requiere una cuenta paga de Zoom y está disponible para usuarios premium sin costo adicional. Zoom dice que se anunciarán características adicionales «en las próximas semanas».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Un investigador hace creer a ChatGPT que tiene 102 años y vive en la Matrix
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

ChatGPT, el modelo amplio de lenguaje más utilizado y prometedor del mundo, puede usarse para extraer información sensible de un usuario, según reportó a OpenAI el investigador en ciberseguridad Johann Rehberger.

Su hallazgo, contado en un videoblog consignado por  ArsTechnica, es una fuente de preocupación, pues señala que “cada que el usuario inicia una nueva conversación ChatGPT continúa extrayendo información”.

Leer más
ChatGPT: la cantidad de recursos que necesita para funcionar se está saliendo de control
IA generativa ChatGPT.

No es un secreto que el crecimiento de la IA generativa ha requerido cantidades cada vez mayores de agua y electricidad, dado que la infraestructura necesaria para soportar estas tecnologías implica un uso intensivo de recursos. Sin embargo, un nuevo estudio de The Washington Post e investigadores de la Universidad de California, Riverside, muestra cuántos recursos necesita el chatbot de OpenAI para realizar incluso sus funciones más básicas.

En términos de uso de agua, la cantidad necesaria para que ChatGPT redacte un correo electrónico de 100 palabras depende del estado y de la proximidad del usuario al centro de datos más cercano de OpenAI. Cuanto menos prevalente sea el agua en una región determinada y cuanto más barato sea la electricidad, más probable es que el centro de datos dependa de unidades de aire acondicionado eléctricas. En Texas, por ejemplo, el chatbot solo consume un estimado de 235 mililitros para generar un correo electrónico de 100 palabras. Ese mismo correo redactado en Washington, por otro lado, requeriría 1,408 mililitros (casi un litro y medio) por correo.

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más