Skip to main content

¿De qué se trata la asociación que hicieron Netflix con Discord?

La gente de NetflixDiscord hicieron una asociación en conjunto para establecer un sistema de recomendación de contenido a través de un bot.

La app de streaming confirmó que empezará a recomendar contenido a través de Discord, según las preferencias de la persona.

Recommended Videos

Netflix no tendrá un perfil propiamente tal, sino que este bot responderá a las inquietudes de los usuarios.

Para activarlo hay que seguir estos pasos:

1. Abrir Discord

2. Ir al servidor de la cuenta y hacer clic en el nombre del servidor en la esquina superior izquierda.

3. Luego, seleccionar » Configuración del servidor » en el menú desplegable.

4. En Configuración, hacer clic en la opción » Directorio de aplicaciones » en la barra lateral izquierda.

5. Buscar “Oye, Netflix” en el directorio de aplicaciones y luego hacer clic en » Agregar al servidor » para instalar el bot de Discord.

6. Una vez que se haya instalado el bot de Discord, diríjase a un canal de texto en el servidor. Aquí se escribir » /heynetflix » y enviar el mensaje.

Ya con esto el bot responderá e iniciará el proceso de recomendación, que funciona al poner las preferencias en el chat y seguir un hilo en la conversación seleccionando diferentes opciones. Finalmente, el bot le entregará al usuario un link con la recomendación final que lo direccionará al navegador para ver el contenido y también se abrirá un chat, libre de spoilers, para quienes estén viendo el contenido, algo que se puede compartir con amigos para conversar.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Estos son los motores de búsqueda con IA que más mienten e inventan
estos son los motores de busqueda con ia que mas mienten e inventan solen feyissa norcov89xm0 unsplash

La implementación de los motores de búsqueda con IA, todavía está en pañales, y esa infancia temprana está entregando muchos errores. 
Un nuevo informe de investigación de Columbia Journalism Review (CJR) ha descubierto que los modelos de IA de empresas como OpenAI y xAI, cuando se les pregunta sobre un evento noticioso específico, la mayoría de las veces, simplemente inventan una historia o se equivocan en detalles significativos.
Los investigadores alimentaron a varios modelos con extractos directos de noticias reales y luego les pidieron que identificaran la información, incluido el título del artículo, el editor y la URL. Perplexity devolvió información incorrecta el 37 por ciento de las veces, mientras que en el extremo, Grok de xAI inventó detalles el 97 por ciento de las veces. Los errores incluían ofrecer enlaces a artículos que no iban a ninguna parte porque el bot incluso inventó la URL misma. En general, los investigadores encontraron que los modelos de IA entregaron información falsa para el 60 por ciento de las consultas de prueba.
Los motores de búsqueda de IA que más mienten

Mark Howard, director de operaciones de la revista Time, entregó una opinión categórica sobre la responsabilidad de la mala información que entregan los motores de búsqueda con IA, y no duda también en culpar a los usuarios.
"Si alguien, como consumidor, cree ahora mismo que alguno de estos productos gratuitos va a ser 100 por ciento preciso, entonces qué vergüenza".
 CJR dice que uno de cada cuatro estadounidenses ahora usa modelos de IA para la búsqueda. E incluso antes del lanzamiento de las herramientas de IA generativa, más de la mitad de las búsquedas de Google eran de "clic cero", lo que significa que el usuario obtenía la información que necesitaba sin hacer clic en un sitio web.

Leer más
¡Cuidado con esta estafa de phishing que se hace pasar por Booking.com
Una mujer hace compras por internet a través de su laptop con una tarjeta de crédito en la mano.

Si trabajas en hostelería y encuentras un correo electrónico en tu bandeja de entrada de Booking.com que dice ser un huésped enfadado, ten cuidado: puede ser parte de una estafa de phishing. Microsoft ha advertido que se ha estado llevando a cabo una campaña de phishing que envía correos electrónicos falsos desde Booking.com que llevan a los usuarios a descargar software malicioso.
En una publicación de blog sobre el tema, Microsoft Threat Intelligence escribe que esta es una campaña en curso que ha existido desde diciembre del año pasado y utiliza una técnica de ingeniería social llamada ClickFix. La víctima recibe un correo electrónico que parece provenir de Booking.com y que puede variar ampliamente en su contenido, desde quejas de huéspedes hasta solicitudes de información de posibles huéspedes y verificación de la cuenta, y que incluye un enlace (o adjunta un PDF con un enlace) que afirma llevar al usuario a Booking.com para tratar el problema.
Cuando los usuarios hacen clic en el enlace, ven una pantalla que parece ser una superposición de CAPTCHA sobre una página Booking.com, pero el CAPTCHA en realidad le indica al usuario que abra Windows Run y copie y pegue un comando que descarga malware en su sistema.
Una vez instalado, el malware puede robar datos financieros y credenciales, una técnica que Microsoft identifica como en línea con una campaña de phishing anterior de un grupo que llama Storm-1865.
Desafortunadamente, las estafas de phishing no son inusuales hoy en día, sin embargo, esta es una versión bastante sofisticada que se aprovecha de las preocupaciones de los trabajadores de la hospitalidad sobre la satisfacción de los huéspedes. Para protegerse de este y otros intentos de phishing, Microsoft aconseja a los usuarios que comprueben la dirección del remitente en un correo electrónico, que desconfíen de los mensajes sobre amenazas urgentes y que pasen el cursor sobre los enlaces para ver la URL completa antes de hacer clic en ellos. En caso de duda, diríjase directamente al proveedor de servicios, en este caso, yendo directamente a Booking.com, en lugar de hacer clic en un enlace.

Leer más
OpenAI quiere barrer con los derechos de autor con la Casa Blanca de «cómplice»
OpenAI Sora

OpenAI es inconsistente en muchas cosas: ¿es una organización sin fines de lucro o con fines de lucro? ¿Sam Altman es apto para ser CEO o no? Pero una cosa en la que la compañía siempre ha sido consistente es en su creencia de que requiere acceso a material protegido por derechos de autor para el entrenamiento de IA. Ahora, a pesar de las muchas voces que no están de acuerdo, OpenAI quiere que el gobierno de EE.UU. apruebe ese acceso sin restricciones dictaminándolo como "uso justo".
La compañía argumenta que Estados Unidos se quedará atrás de China en la carrera de la IA si las empresas no tienen la libertad de entrenar sus modelos con material protegido por derechos de autor, alegando que las "leyes estatales demasiado onerosas" ralentizarán el proceso y afectarán los resultados.
Si eres un creador, esto también podría afectarte. Los artistas, escritores, programadores, fotógrafos y cineastas con portafolios en línea, por ejemplo, son dueños de su trabajo, pero si este plan se lleva a cabo, no tendrás motivos para quejarte cuando tu contenido se utilice para entrenar a la IA. Incluso las actividades creativas más físicas, como el diseño de moda, la fabricación de joyas o la escultura, no son seguras si publicas fotos de tu trabajo en línea.
Parece una broma cruel que OpenAI quiera que el entrenamiento de la IA cuente como uso "justo" de obras protegidas por derechos de autor cuando los productos que desarrolla se utilizarán para generar nuevas versiones destrozadas de creaciones personales. Un ejemplo particularmente directo de esto ocurrió el mes pasado cuando se le pidió al elenco francés de Apex Legends que participara en el entrenamiento de un modelo de IA que eventualmente se usaría para generar líneas de voz para el juego.
Hay muchos usos comerciales para varios tipos de contenido creativo, pero cuanto mejores sean los modelos de IA para imitarlo, más difícil será ganar dinero como creador. Las empresas tienen un gran historial de elegir la opción menos costosa en cualquier situación, y hay pocas razones para creer que esto cambiará pronto.
Es difícil imaginar cuál será la solución para los creadores en esta situación. Las personas que realmente se preocupan por proteger su trabajo pueden comenzar a proteger con contraseña sus portafolios en línea, sacrificando solo algunos ejemplos antiguos a los conjuntos de capacitación y solo compartiendo el resto a pedido humano.
Definitivamente, también habría demanda de una solución adecuada: algún tipo de nuevo portafolio o plataforma de intercambio creativo a la que solo los humanos puedan acceder. Tendría que tener un proceso de autenticación bastante estricto, pero definitivamente hay personas que se preocupan lo suficiente por esto como para sacrificar algo de comodidad.
La Casa Blanca aún no ha respondido al plan de OpenAI, por lo que tendremos que esperar y ver cómo se desarrolla esto.

Leer más