Se dice que Google permite que sus empleados dediquen un porcentaje de su tiempo a dar rienda suelta a la creatividad y que, posteriormente, parte del fruto de ese tiempo se consolida en productos que ven la luz del mercado. Sin cortapisas, sin condiciones… lo que surja de su imaginación y sea materializable en un producto, puede ver luz verde y llegar a las estanterías. Todo un brindis a la creatividad y un espectáculo de luz y sonido sin ton ni son que ha llegado, sin filtros, a los espectadores del esperado evento Made by Google. Ha sido como disfrutar de la traca final de los fuegos artificiales: ni orden, ni concierto, pero disfrutando del espectáculo.
Un momento: ¿han presentado ya el Pixel 4? ¿Nest ahora? ¿Y los audífonos?… Google ha ido disparando sus cohetes a diestra y siniestra, sin guiones claros ni una columna vertebral de lo que estábamos viendo: el infierno para todo periodista o blogger que cubriera el evento, pero lleno de contenido, cuando menos, sorprendente. Este brindis al caos ha alcanzado su cumbre cuando, tras haber presentado el plato fuerte del día, el Pixel 4, y cuando ya nos estaban informando incluso de los operadores que lo iban a comercializar, uno se da cuenta de que no han dicho nada de la cámara.
«¡Y nos falta hablar de la cámara!», se recuerda a sí misma la responsable del producto. Entre estos sobresaltos, el guión nos ha llevado los rumoreados audífonos Pixel Buds, para luego saltar a conceptos menos tangibles, como el medio ambiente y la privacidad (Google ha insistido tozudamente en esta última), para luego saltar, por ese orden, al Pixelbook Go, Nest Mini, para cerrar con el esperado Pixel 4. El cierre ha estado complementado con la entrevista a Annie Leibovitz y la extensa clase magistral por parte del profesor emérito de Stanford e investigador Marc Levoy, quien forma ahora parte del equipo de Google.
El poder del algoritmo
Con todo este magma de información, datos, productos y funciones, uno se queda con los conceptos clave destacados abierta o veladamente. El primero de ellos es la privacidad, un apartado al que Google le ha dedicado posiblemente demasiado tiempo en una ya de por sí densa keynote. El gigante no ha escatimado minutos en hablar de su chip Titan, pero también en el control sobre sus datos por parte del usuario e incluso la posibilidad de hacer un borrado de los mismos de viva voz con el Asistente. Google, junto con Facebook, el rey mundial en la recopilación y explotación de los datos del usuario, hablando de privacidad… ¿ironía o nuevos tiempos?
Pero más allá de esto, Made by Google nos ha deslumbrado posiblemente en algo que en la propia casa tienen tan asimilado que no prestan el suficiente valor: el dominio absoluto del algoritmo, el aprendizaje automático y la inteligencia artificial al servicio del usuario. Boquiabiertos nos hemos quedado cuando la presentadora, transcurridos cuatro minutos de la sección correspondiente al Pixel 4, nos revela que este equipo llevaba grabando la misma desde el comienzo y transcribiéndola con cero errores. Por si no fuera suficiente la demostración de fuerza, la responsable del producto se pone a hablar en rabioso directo al terminal que transcribe, con una precisión pasmosa, lo expuesto. Uno, acostumbrado a Siri y sus vaivenes, se queda mudo al ver esto.
Pero… ¿adónde nos llevas, Google?
La aplicación de algoritmos en funciones como la transcripción de audios es impresionante, pero lo mejor estaba por llegar: su aplicación en el terreno de la fotografía. Google ha tardado en llegar al apartado de la cámara del Pixel 4, pero, sinceramente, se lo hemos perdonado. Aquí, Levoy sí ha puesto un poco de orden en esta keynote sin dueño y ha enumerado las cuatro funciones clave de la cámara del teléfono: Live HDR+, Balance Avanzado de Blancos, Modo Retrato Extendido y una actualización del Modo Nocturno.
Llama la atención que en la presentación no se haya insistido en las lentes, sino que todo el protagonismo se lo ha llevado todo el proceso posterior con algoritmos y el aprendizaje de máquinas: Google sabe de lo que habla. Este proceso posterior, en tiempo real, permite recuperar blancos puros en situaciones extremas (nos muestran un retrato tomado en el interior de una cueva llena de hielo y con el suelo nevado) o también con la esperada evolución hacia la astrofotografía de la cámara del dispositivo, que puede tomar espectaculares fotos de la Luna y las estrellas sin mayor inconveniente (un pequeño pellizco para el iPhone 11 Pro).
Pero en esta carrera hacia adelante no nos queda claro cómo ve el futuro Google: ¿más inteligencia artificial y mejores algoritmos? ¿Cómo será el catálogo de productos de la firma dentro de cinco años? Parece que no hay una clara respuesta a esto último y, realmente, poco importa entre las paredes de Googleplex: lo importante es avanzar, mejorar lo presente e ir ofreciendo al usuario mejores soluciones, eso sí, todas basadas en inteligencia artificial y algoritmos.