Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

Las mascarillas burlan los algoritmos de reconocimiento facial

Add as a preferred source on Google

Está comprobado. Las mascarillas son uno de los mejores elementos de protección contra el coronavirus. Sin embargo, el uso de cubrebocas ha traído un efecto adverso: están burlando los algoritmos de reconocimiento facial.

Así lo dio a conocer un informe del Instituto Nacional de Estándares y Tecnología (NIST, en inglés) de Estados Unidos, que es citado por Venture Beat.

Recommended Videos

Los investigadores de este laboratorio —dependiente del Departamento de Comercio— evaluaron la eficacia de los algoritmos de reconocimiento facial frente a caras parcialmente cubiertas por mascarillas.

Probaron 89 algoritmos comerciales de reconocimiento facial de empresas como Panasonic, Canon y Tencent. En el testeo, combinaron fotos de personas sin mascarillas con imágenes de los mismos individuos, pero con una cubrebocas insertado digitalmente.

Mascarillas digitales en la prueba realizada por el NIST
NIST

La comparación entre dos fotos de la misma persona es una técnica que se usa en el desbloqueo de algunos teléfonos celulares y en los sistemas de verificación de identidad de pasaportes.

¿El resultado del estudio? Los sistemas de reconocimiento facial evidenciaron tasas de error de entre 5 y 50 por ciento.

Durante la investigación —realizada en conjunto con el Departamento de Seguridad Nacional— se pusieron a prueba nueve variantes de mascarilla, que incluían diferencias de forma y color. Todas cubrían la nariz.

Estos cubrebocas digitales eran de color negro o azul claro, similar al tono de una mascarilla quirúrgica. En cuanto a las formas, algunas eran redondas y otras eran del ancho de la cara. Estas últimas tenían variantes altas, medias y bajas.

Según los investigadores, la precisión del algoritmo frente a las caras enmascaradas disminuyó “sustancialmente” en todos los ámbitos.

Además, mientras más nariz cubría una mascarilla, menor era la precisión del algoritmo. Las tasas de error fueron generalmente más bajas con los cubrebocas redondos y con las mascarillas negras.

Los resultados del estudio son similares a los de un estudio publicado por Venture Beat que descubrió que los algoritmos de reconocimiento facial utilizados por Google y Apple tenían dificultades para reconocer a los usuarios que usaban mascarillas.

Alejandro Manriquez
Former Digital Trends Contributor
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more