Skip to main content
  1. Home
  2. Android
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Google está trabajando en una función para Android que reduce el mareo

Add as a preferred source on Google
Electronics, Phone, Mobile Phone
DTES

Google está trabajando en una solución nativa para una de las partes más molestas de usar un teléfono: marearse en el coche mientras haces doomscroll en la parte trasera de un Uber. La función, actualmente llamada Motion Cues, parece que saldrá en una futura actualización – probablemente Android 17 – y se trata de facilitar la lectura o el visionado de vídeos sin que se te revuelva el estómago.

En qué está trabajando Google

Qué pasó: Motion Cues es el intento de Google de solucionar el «conflicto sensorial». Ese es el término elegante para lo que ocurre cuando tus ojos le dicen a tu cerebro que estás sentado (mirando una pantalla), pero tu oído interno grita que te estás moviendo (rebotando en un coche). La desconexión te da náuseas. La solución de Google añade pequeños puntos animados en los bordes de la pantalla que se mueven al ritmo del vehículo. Al dar a tus ojos una referencia visual que coincide con el movimiento que siente tu cuerpo, engañas a tu cerebro para que se relaje.

Recommended Videos

No es un concepto completamente nuevo. Apple añadió algo similar, «Vehicle Motion Cues», en iOS 18, y una aplicación para Android llamada KineStop lleva haciendo esto desde 2018. Pero Google quiere integrarlo directamente en el sistema operativo para que no necesites herramientas de terceros.

Los investigadores de código encontraron señales de movimiento ocultas en versiones recientes de Android Canary, pero actualmente está desactivado. Ahora mismo, la versión de prueba tiene un gran defecto: utiliza una superposición estándar, lo que significa que los puntos desaparecen si bajas las notificaciones, abres Configuración o miras la pantalla de bloqueo. Eso pierde un poco el sentido si la «cura» desaparece la mitad de las veces que usas el móvil.

Por qué esto importa y qué viene después

Por qué es importante: Parece que Google está solucionando ese problema de superposición integrando una API dedicada de Motion Cues directamente en SystemUI, la parte central de Android que gestiona la barra de estado y la navegación. Esto es importante porque evita las normas de seguridad habituales que impiden que las aplicaciones dibujen sobre pantallas sensibles. Al moverlo al nivel del sistema, esos puntos de movimiento seguirán siendo visibles pase lo que pase lo que hagas en tu teléfono.

También la mantienen bien sujeta. Solo las aplicaciones del sistema privilegiado obtendrán las claves de esta API, así que no tienes que preocuparte de que aplicaciones spam aleatorias invadan tu pantalla. Crea un carril dedicado y seguro para las características de accesibilidad.

Por qué deberías preocuparte: Si eres de las personas que tienen que guardar el teléfono inmediatamente cuando el coche empieza a moverse, esto cambia las reglas del juego. Podría significar finalmente poder terminar un texto, leer un artículo o ver YouTube en un trayecto sin sentir que necesitas una bolsa para vomitar. Convierte el tiempo muerto en tránsito en tiempo útil real.

Qué sigue: Como esto requiere cambios profundos en el sistema operativo, probablemente necesite una actualización completa del sistema operativo. Puede que veamos que se colen en una actualización tardía de Android 16, pero Android 17 parece la apuesta más segura. Cuando se lance, no te sorprendas si Google lo renombra como algo como «Motion Assist» y lo incluye con el rumoreado modo Transiting, que ajusta automáticamente tu teléfono cuando detecta que estás viajando. Hasta entonces, puedes comprar KineStop en la Play Store si necesitas alivio ahora mismo.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La particular historia del nombre Nano Banana: quién inspiró todo
Banana, Food, Fruit

En las coordenadas exactas donde convergen la creatividad y la urgencia laboral, nació "Nano Banana", el nombre más memorables de un modelo de inteligencia artificial en años recientes. Lo que comenzó como un proceso convencional de denominación técnica en Google DeepMind evolucionó hacia una identidad que conquistó las redes sociales y transformó la percepción pública sobre herramientas de edición de imágenes asistida por IA.

El origen del nombre posee un encanto particular. A las 2:30 de la madrugada, cuando el plazo de envío al portal LMArena resultaba inminente, Naina Raisinghani, gerente de producto, improvisó una solución basada en sus apodos personales: "Naina Banana" (como la llamaban algunos amigos) y "Nano" (término que sus colegas utilizaban refiriéndose a su estatura y su afinidad por la computación). La fusión de ambas denominaciones resultó en "Nano Banana", un acertijo semántico que contradecía toda lógica corporativa de branding, pero que capturó la esencia del producto: compacto, poderoso y sorprendentemente efectivo.

Read more
¿Tu hijo ve demasiados Shorts? Youtube está colocando un límite
Page, Text, Electronics

YouTube acaba de añadir un nuevo control parental que te permite poner un límite estricto sobre cuánto tiempo puede desplazarse una cuenta adolescente supervisada por Shorts. Si intentas controlar la fatiga del deslizamiento sin prohibir la app, este es un límite directo de tiempo de YouTube Shorts para adolescentes, basado en el propio feed.

El temporizador ya está disponible, y YouTube dice que también está trabajando en una configuración que permite poner el límite de emisión de Shorts a cero. Eso es lo más parecido a un interruptor de apagado de Shorts para cuando quieres YouTube para vídeos de deberes o suscripciones, no para desplazarse sin fin.

Read more
Google Meet ahora utiliza ultrasonidos para llegar a reuniones más rápido
Text, Disk, Rubber Eraser

Google está utilizando una tecnología de ultrasonidos ingeniosa para que llegues a las reuniones más rápido y con menos posibilidades de recibir una retroalimentación de audio embarazosa. La compañía está desplegando la detección automática de salas de conferencias en Google Meet en Android e iOS.

La función ya existía en portátiles, pero llevarla a los móviles la hace mucho más práctica para reuniones reales. La idea es sencilla. Cuando entras en una sala de reuniones y abres Meet a través de la app o Gmail, tu teléfono puede detectar que está físicamente dentro de una sala de reuniones compatible y te invita a unirte correctamente a la llamada en curso.

Read more