Skip to main content
  1. Home
  2. Redes sociales
  3. Computación
  4. Noticias
  5. Tendencias
  6. News

Caso de Nueva Zelanda muestra que la inteligencia artificial puede mejorar

Add as a preferred source on Google

Facebook, YouTube y Twitter son rápidos al compartir estadísticas sobre cómo están mejorando los filtros de inteligencia artificial, pero las consecuencias del ataque de la semana pasada en Christchurch, Nueva Zelanda hicieron que las brechas en el sistema fueran terriblemente obvias. Los videos grabados desde el punto de vista del tirador se cargaron en las redes sociales en números al menos en el rango de cien mil después de que se publicara una copia del original en una plataforma para compartir archivos llamada 8chan.

El ataque a dos mezquitas en Christchurch dejó 50 muertos y otros 50 heridos, según las autoridades. El terrorista de 28 años de edad llevaba una cámara montada en un casco y transmitió en vivo los disparos de una manera que algunos dicen que estaba «diseñado para su máxima difusión en las redes sociales». El director de productos de YouTube, Neal Mohan, dice que el tiroteo se subió más que de costumbre.

Recommended Videos

Tres días después las redes sociales seguían luchando para deshabilitar las copias del video de 17 minutos. YouTube se equivocó temporalmente por precaución y deshabilitó la parte de revisión humana del proceso destinado a identificar videos falsamente mal etiquetados por la inteligencia artificial de la plataforma. El sistema como una violación de los términos. El cambio aún está en curso, y se alienta a los usuarios de YouTube que creen que sus videos se clasificaron de forma incorrecta a solicitar el reintegro de sus videos. Algunas funciones de búsqueda también permanecen desactivadas.

Si bien YouTube no compartió los números exactos, Facebook dice que eliminó 1.5 millones. Aproximadamente el 80 por ciento de esos, es decir 1.2 millones, fueron bloqueados durante el proceso de carga antes de llegar a la plataforma, mientras que otros 300,000 fueron retirados dentro de las primeras 24 horas después de la publicación. El video en vivo obtuvo menos de 200 visitas, dijo la compañía, y el video subido por el atacando tuvo alrededor de 400 vistas antes de ser eliminado. Ningún usuario reportó el video sino 29 minutos después de que el atacante empezara a transmitir en vivo. La plataforma eliminó la cuenta del presunto atacante en Facebook e Instagram y vetó al usuario de sus plataformas.

Algunos de los esfuerzos ​​de las redes sociales para mantener la violencia y el odio funcionaron, como los 1.3 millones de videos que nunca fueron subidos a Facebook. Los errores anteriores de YouTube que permitieron que los videos violentos aparecieran en las sugerencias de búsqueda no parecían ser tenidos en cuenta, y los usuarios que buscaban el incidente fueron redirigidos a la cobertura de noticias del acontecimiento.

Pero como lo demuestra lo sucedido, la inteligencia artificial no es infalible. Muchas redes usan lo que se denomina “hash” para evitar las cargas masivas al reconocer cuándo se carga el mismo video más de una vez. Pero según The Washington Post, algunos usuarios han podido evitar el hash acortando el video, agregando logotipos o incluso utilizando un efecto que hizo que el evento de la vida real pareciera un videojuego. Mientras el video original fue eliminado, las redes tuvieron problemas con los «remixes» de la transmisión en vivo.

Facebook amplió su tecnología de “hashing” para intentar captar más variaciones en el video, agregando “hashing” de audio al proceso. Las redes que forman parte del Foro Global de Internet para Contrarrestar el Terrorismo, que incluye Facebook, YouTube, Twitter y Microsoft, agregaron variaciones del video a una base de datos, permitiendo que otras redes eviten las mismas cargas. Facebook dice que el grupo sumó alrededor de 800 variaciones del video a la base de datos.

“Esta fue una tragedia que casi fue diseñada con el propósito de volverse viral. Hemos progresado, pero eso no significa que no tengamos mucho trabajo por delante, y este incidente ha demostrado que, especialmente en el caso de más videos virales como este, hay más trabajo por hacer. «, Dijo Mohan a The Washington Post.

Facebook no comentó por qué el 20 por ciento de los videos que se publicaron en la red no se detectaron al subirlos. «Continuamos trabajando las veinticuatro horas del día para eliminar el contenido infractor mediante una combinación de tecnología y personas», declaró la representante de Facebook Nueva Zelanda Mia Garlick en un tweet. «Por respeto a las personas afectadas por esta tragedia y las preocupaciones de las autoridades locales, también estamos eliminando todas las versiones editadas del video que no muestran contenido gráfico».

Reddit y Twitter también eliminaron el contenido relacionado de sus plataformas, pero no compartieron estadísticas relacionadas. «Estamos continuamente monitoreando y eliminando cualquier contenido que describa la tragedia, y continuaremos haciéndolo de acuerdo con las reglas de Twitter», escribió Twitter Safety. «También estamos en estrecha coordinación con la policía de Nueva Zelanda para ayudar en su investigación».

Juliana Jara
Former Digital Trends Contributor
Qué son las cuentas secundarias que prepara WhatsApp
WhatsApp

WhatsApp está ultimando un profundo cambio en la forma en que los menores usan la app, con la introducción de un sistema de control parental basado en “cuentas secundarias”. Esta nueva modalidad permitirá que las cuentas de los hijos estén siempre vinculadas a una cuenta principal, gestionada por padres o tutores legales.​

La función, detectada en la beta 2.26.1.30 de WhatsApp para Android, se articula en torno a una cuenta principal que configura y administra una cuenta secundaria específica para el menor. Desde esa cuenta principal, los adultos podrán controlar todos los ajustes de privacidad del perfil infantil: activar o desactivar el doble tick azul, limitar quién puede ver la foto de perfil, definir quién puede añadir al menor a grupos y, sobre todo, restringir quién está autorizado a enviarle mensajes o llamarlo.​

Read more
X ya no permitirá hacer imágenes gratuitas con Grok
Electronics, Phone, Mobile Phone

Grok, el chatbot de IA respaldado por Elon Musk y integrado en el tejido de X, ha empezado a limitar sus herramientas de generación y edición de imágenes a los suscriptores de pago. El cambio sigue a una avalancha de críticas sobre la capacidad de la herramienta para producir imágenes sexualizadas y no consensuadas. Aunque la restricción es claramente un intento de frenar la marea de controversia, reguladores, grupos de defensa y usuarios argumentan que hace poco para evitar la creación de contenido dañino y potencialmente ilegal que involucre a mujeres y niños.

A partir de la noche del jueves, Grok trasladó oficialmente sus funciones de creación de imagen detrás del muro de pago de X Premium, que comienza en 8 dólares al mes

Read more
¿Te llegó un correo para reestablecer tu contraseña de Instagram? OJO!!!
Instagram

Un enorme tesoro de datos de usuarios de Instagram volvió a salir a la superficie hace unos días, y colocó a millones de cuentas de nuevo en el punto de mira más de un año después de que se pensara que la filtración original estaba muerta y enterrada.

Aproximadamente 17,5 millones de cuentas están atrapadas en esta última ola después de que los datos comenzaran a circular en un notorio foro de hacking a principios de enero de 2026. Según una alerta de seguridad de Malwarebytes, un hacker que usa el nombre de usuario "Solonik" es el responsable de la filtración. Aunque esto pueda parecer una nueva brecha de seguridad, los expertos afirman que los datos en realidad provienen de un error de 2024: una API de Instagram mal configurada que permitió a los malintencionados extraer grandes cantidades de información de perfil antes de que Meta pudiera tapar el agujero.

Read more