Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Los robots con IA no pueden salir a la calle: sería un gran peligro

Add as a preferred source on Google
robots ia no pueden salir a la calle son peligrosos robot
Imagen utilizada con permiso del titular de los derechos de autor

Investigadores de Penn Engineering han descubierto vulnerabilidades de seguridad no identificadas previamente en una serie de plataformas robóticas gobernadas por IA.

«Nuestro trabajo muestra que, en este momento, los grandes modelos de lenguaje simplemente no son lo suficientemente seguros cuando se integran con el mundo físico», dijo George Pappas, profesor de Transporte en Ingeniería Eléctrica y de Sistemas de la Fundación UPS, en un comunicado.

Recommended Videos

Pappas y su equipo desarrollaron un algoritmo, denominado RoboPAIR, «el primer algoritmo diseñado para hacer jailbreak a robots controlados por LLM». Y a diferencia de los ataques de ingeniería rápida existentes dirigidos a los chatbots, RoboPAIR está diseñado específicamente para «provocar acciones físicas dañinas» de robots controlados por LLM, como la plataforma bípeda que Boston Dynamics y TRI están desarrollando.

Según se informa, RoboPAIR logró una tasa de éxito del 100% en el jailbreak de tres plataformas de investigación robótica populares: el Unitree Go2 de cuatro patas, el Clearpath Robotics Jackal de cuatro ruedas y el simulador Dolphins LLM para vehículos autónomos. El algoritmo tardó apenas unos días en obtener acceso completo a esos sistemas y comenzar a eludir las barreras de seguridad. Una vez que los investigadores tomaron el control, pudieron dirigir las plataformas para que tomaran medidas peligrosas, como conducir a través de cruces de carreteras sin detenerse.

«Nuestros resultados revelan, por primera vez, que los riesgos de los LLM con jailbreak se extienden mucho más allá de la generación de texto, dada la clara posibilidad de que los robots con jailbreak puedan causar daños físicos en el mundo real», escribieron los investigadores.

Los investigadores de Penn están trabajando con los desarrolladores de la plataforma para fortalecer sus sistemas contra nuevas intrusiones, pero advierten que estos problemas de seguridad son sistémicos.

«Los hallazgos de este documento dejan muy claro que tener un enfoque que priorice la seguridad es fundamental para desbloquear la innovación responsable», dijo Vijay Kumar, coautor de la Universidad de Pensilvania, a The Independent. «Debemos abordar las vulnerabilidades intrínsecas antes de desplegar robots habilitados para IA en el mundo real».

«De hecho, el red teaming de IA, una práctica de seguridad que implica probar los sistemas de IA en busca de posibles amenazas y vulnerabilidades, es esencial para salvaguardar los sistemas de IA generativa», agregó Alexander Robey, primer autor del artículo, «porque una vez que identificas las debilidades, puedes probar e incluso entrenar estos sistemas para evitarlas».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more