Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

Nueva clave para detectar un rostro deepfake: los ojos

Add as a preferred source on Google
clave detectar rostro deepfake ojos deepfakes
Imagen utilizada con permiso del titular de los derechos de autor

Una nueva técnica clave permitirá ahora saber cuándo un rostro podría o no ser deepfake, es decir, manipulado con algún tipo de IA generativa.

Y lo sorprendente es que se hace utilizando las mismas técnicas que utilizan los astrónomos para analizar las observaciones de las galaxias.

Recommended Videos

Una nueva investigación compartida en la Reunión Nacional de Astronomía de la Royal Astronomical Society en Hull, sugiere que las falsificaciones generadas por IA se pueden detectar analizando los ojos humanos de la misma manera que los astrónomos estudian las imágenes de las galaxias.

Un equipo dirigido por el estudiante de maestría de la Universidad de Hull, Adejumoke Owolabi, descubrió que los reflejos de luz en los ojos de los humanos deepfaked simplemente no se alinean.

Imagen utilizada con permiso del titular de los derechos de autor

«Los reflejos en los globos oculares son consistentes para la persona real, pero incorrectos (desde el punto de vista de la física) para la persona falsa», dijo el profesor de astrofísica de la Universidad de Hull, Kevin Pimbblet, en un comunicado.

Imagen utilizada con permiso del titular de los derechos de autor

Los investigadores analizaron los reflejos de la luz en los globos oculares de las personas en imágenes reales y generadas por IA. A continuación, emplearon métodos normalmente utilizados en astronomía para cuantificar los reflejos y comprobaron la coherencia entre los reflejos del globo ocular izquierdo y derecho.

Las imágenes falsas a menudo carecen de consistencia en los reflejos entre cada ojo, mientras que las imágenes reales generalmente muestran los mismos reflejos en ambos ojos.

«Para medir las formas de las galaxias, analizamos si son centralmente compactas, si son simétricas y qué tan suaves son. Analizamos la distribución de la luz», dijo el profesor Pimbblet.

«Detectamos los reflejos de forma automatizada y analizamos sus características morfológicas a través de los índices CAS [concentración, asimetría, suavidad] y Gini para comparar la similitud entre los globos oculares izquierdo y derecho.

El coeficiente de Gini mide la distribución de la luz en cualquier imagen dada de una galaxia. Ordena los píxeles por su brillo y compara los resultados con una distribución perfectamente uniforme.

«Es importante tener en cuenta que esto no es una bala de plata para detectar imágenes falsas», agregó el profesor Pimbblet. «Hay falsos positivos y falsos negativos; No lo va a conseguir todo. Pero este método nos proporciona una base, un plan de ataque, en la carrera armamentística para detectar deepfakes».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more