Skip to main content
  1. Home
  2. Tendencias
  3. Autos
  4. Noticias
  5. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

¿Saliste de fiesta? La app de Uber podría saber si estás ebrio y negarte el servicio

Add as a preferred source on Google

uber
¿Tomaste unas copas demás y quieres usar un Uber? Pronto podrías tener que pensar dos veces antes de usar la app de la compañía para pedir un vehículo.

Uber está considerando la idea de utilizar un sistema de inteligencia artificial (A.I.) para determinar si los pasajeros han bebido demasiado, aún antes de que entren al vehículo, y luego adaptar su servicio en consecuencia. Eso podría significar que se les conceda un tiempo adicional para llegar a un automóvil, o en casos extremos, potencialmente negarles el acceso.

Recommended Videos

Una solicitud de patente presentada esta semana por la compañía detalla cómo el aprendizaje automático y la inteligencia artificial podrían ser usados para detectar pequeños cambios en el comportamiento de un potencial pasajero, y todo, mientras usa la aplicación para solicitar un Uber.

Bajo el título de «Prediciendo el estado del usuario mediante el aprendizaje automático», la patente no menciona explícitamente la embriaguez o el consumo de drogas. Pero su contenido, que habla de «estados de usuario no característicos» e «identificación de un estado normal o anormal», sugiere que esas son precisamente las situaciones que están en el centro de la idea. Sin embargo, otras condiciones que también podrían conducir a un comportamiento poco característico de un pasajero también podrían incluir cansancio extremo.

Entonces, ¿cómo funcionaría? De acuerdo con la presentación de la patente, la I.A. incorporada en la aplicación de Uber medirá el comportamiento del usuario, como la velocidad y la precisión de su escritura, así como la velocidad y la dirección de sus pasos mientras camina, antes de interpretar los datos para determinar si la persona está solo un poco mareada o completamente embriagada.

En otras palabras, si estás escribiendo más despacio de lo normal, cometiendo más errores de los que sueles cometer, y tal vez dejando caer el teléfono o tambaleándote por todas partes, es probable que el software llegue a la conclusión de que estás intoxicado.

El algoritmo también podría hacer uso de los datos de hora y ubicación, teniendo en cuenta si la solicitud de viaje proviene o no de un área llena de bares y discotecas al final de la noche.

Si el sistema de Uber concluye que el usuario está ebrio, podría responder de varias maneras. Por ejemplo, podría sugerir a un conductor con más experiencia, o uno entrenado para manejar esos pasajeros potencialmente problemáticos. También podría evitar que los pasajeros ebrios tomen un paseo en grupo. Como mínimo, servirá como aviso al conductor de que la persona que está a punto de recoger podría haber tomado unas copas demás.

Por supuesto, si el algoritmo detecta a alguien en un estado extremadamente malo, un conductor puede simplemente negarse a recogerlo, por temor a que ensucien su vehículo si se les descompone el estómago, o que ocurra algo peor.

Sin embargo, algunos usuarios de Uber encuentran que la idea expresada en la patente de Uber es algo preocupante, especialmente porque podría ofrecer una forma para que algunos conductores maliciosos sepan cómo identificar personas que están en un estado vulnerable, o que pueden no tener el control total de sus facultades.

Los defensores de la privacidad tampoco están contentos. Uber no tiene la mejor trayectoria en lo que respecta al manejo de los datos de los clientes, y mantener la información sobre cuándo se percibe que sus pasajeros están -supuestamente- sobrios o ebrios, puede hacer que muchas personas se sientan incómodas usando el servicio.

Cuando se le preguntó acerca de la patente, el jefe de Uber, Dara Khosrowshahi, le dijo al NY Post que «es una idea genial», y agregó que si eso haría más seguro a Uber, «ciertamente es algo que consideraríamos».

Sin embargo, debe señalarse que en esta etapa, la tecnología y sus posibles aplicaciones son simplemente una idea en un documento, por lo que es posible que no sea implementada. Te mantendremos informado.

Milenka Peña
Former Digital Trends Contributor
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more