Skip to main content
  1. Home
  2. Tendencias
  3. News

Estos robots piden explicaciones cuando están confundidos

Add as a preferred source on Google

Los robots ya están remplazando a los seres humanos en muchos trabajos. Por ejemplo, pueden hacer de cajeros en restaurantes de comidas rápidas, limpiar la casa por nosotros y recibir a los huéspedes en la recepción de un hotel.

Sin embargo, aún no podemos tener conversaciones dinámicas con ellos, como lo hacemos usualmente con otras personas.

Recommended Videos

Si la robótica quiere llegar a desarrollar máquinas que puedan remplazar las nuestras, necesitarán comunicarse mejor y empezar a ser más sociables.

Un equipo de investigadores de la Universidad de Brown está trabajando con el fin de incorporar en los robots habilidades sociales y desarrollaron un algoritmo que permite que hagan sus tareas mejor al colaborar con personas.

Durante el estudio, hecho por el Laboratorio Humanos a Robots de la universidad, los robots fueron programados para pedir explicaciones.

Cuando  una persona le decía al robot que agarrara un objeto, el robot podía preguntar “¿Cuál?, en caso de que el comando fuera ambiguo.

Este tipo de comunicación permitió que el robot hiciera las tareas un 25% más rápidamente y un 2.1% más preciso con respecto a las situaciones donde dicho tipo de programación no existía, según indica la investigación, que será presentada en la Conferencia Internacional de Robótica y Automatización en Singapur esta primavera.

El objetivo del laboratorio no es crear máquinas perfectas, sino crear máquinas que puedan enmendar sus errores.

“Es muy difícil pasar de un 90% a un 99.9% de precisión”, afirma Stefanie Tellex, profesora de ciencias informáticas y líder de la investigación a Digital Trends.

“Aun así el 90% de precisión significa que el robot fallará en una de diez interacciones. Si se interactúa todos los días, significa que fallará todos los días. Con nuestra tecnología, el robot detectará la falla y hará preguntas”, añade Tellex.

El algoritmo que los programa para hacer preguntas,  responde a comandos y gestos de personas. Sin embargo el sistema se confunde cuando hay varios objetos similares sobre una mesa.

Sin embargo, el algoritmo funcionó bastante bien para los participantes sin entrenamiento, quienes asumieron que podían entender y responder a frases complejas que no están programados para entender.

“Pensamos en robots que algún día ayuden a los astronautas en el espacio”, afirma Tellex, añadiendo que la investigación fue asistida financieramente por la NASA. También piensa que estas máquinas pueden ayudar a pacientes en clínicas o en casa.

Juliana Jara
Former Digital Trends Contributor
Topics
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more