Skip to main content

El modo de IA de Google reinventará la Búsqueda. Estoy preocupado, y tú también deberías estarlo

Modo IA de Google
DTES

Por  de DT en inglés


Google está impulsando con más IA en cómo funciona la búsqueda en Internet. ¿Recuerdas AI Overview, que esencialmente resume el contenido extraído de los sitios web y lo presenta en la parte superior de la página de búsqueda de Google?

Recommended Videos

Esa característica propensa a errores ahora se está expandiendo al mercado estadounidense, impulsada por los nuevos modelos Gemini 2.0 AI. Ya no requiere iniciar sesión en una cuenta de Google y se ha abierto a usuarios de todas las edades. Si bien es un movimiento arriesgado en sí mismo, Google está dando un tratamiento general similar a toda la página de búsqueda con un nuevo modo de IA.

Actualmente disponible como un experimento de laboratorio, el modo de IA esencialmente convierte la experiencia tradicional de búsqueda de Google con enlaces a sitios web en un diálogo conversacional, de la misma manera que los chatbots de IA le dan respuestas. Es una comodidad deliciosa, pero podría resultar dramáticamente erróneo, si nos guiamos por la historia de las descripciones generales de la IA.

¿Qué es el modo AI para la Búsqueda de Google?

Demostración de cómo funciona el modo AI de Google.
Google (en inglés)

La idea general es dar a los usuarios toda la información que necesitan, extraída de sitios web indexados, y ahorrarse la molestia de hacer clic en las fuentes y leer las páginas web para encontrar las respuestas. Puede hacer consultas de seguimiento en un formato de lenguaje natural, en lugar de una búsqueda llena de palabras clave, e incluso proporcionar los detalles que, de otro modo, requerirían algunas solicitudes de búsqueda de seguimiento más.

«Utiliza una técnica de ‘distribución ramificada de consultas’, emitiendo múltiples búsquedas relacionadas simultáneamente en subtemas y múltiples fuentes de datos y luego reúne esos resultados para proporcionar una respuesta fácil de entender», explica la compañía.

Google, sin embargo, advierte que no siempre puede acertar con el modo IA, a pesar de que sus pruebas internas han dado resultados alentadores. En escenarios en los que el modo de IA no confía en la respuesta resumida, simplemente mostrará una lista de resultados de búsqueda web, como la experiencia tradicional de búsqueda de Google.

Modo de IA de Google en dispositivos móviles.
Google (en inglés)

En su avatar actual, puede proporcionar respuestas como un muro de texto o tablas con un formato ordenado, pero en el futuro, también se incluirán imágenes y videos. Actualmente, el modo AI solo está disponible para los suscriptores de Google One AI Premium y se implementará como una experiencia opcional.

Es un mal augurio para cualquier persona que dependa de la Búsqueda de Google, especialmente si hablamos de precisión. He aquí un ejemplo. Miré si estamos viviendo en el año 2025. La visión general de la IA de Google dice que es el año 2024. La primera fuente que citó para obtener esa información fue Wikipedia, que dice explícitamente que el año en curso es 2025.

Una rica historia de riesgos

La idea detrás del modo AI para la Búsqueda de Google se basa teóricamente en la conveniencia del usuario. Sin embargo, la pila tecnológica fundamental que hay detrás sigue lidiando con algunos problemas que todo el panorama de la IA aún no ha solucionado. Una de ellas son las alucinaciones de IA, que es esencialmente una herramienta de IA que inventa información y la presenta con confianza como un hecho.

Los resúmenes de IA de Google son el mejor ejemplo de esos errores, y los errores continúan apareciendo hasta el día de hoy. Tomemos, por ejemplo, esta evidencia, que se compartió hace solo unas horas en Reddit, en la que AI Overview mintió con confianza sobre una regla de conducción del lado derecho en la India.

Ejemplos de errores de descripción general de Google AI.
Reddit / DT

Esa es una afirmación falsa y, sin embargo, en ningún momento, el lenguaje del texto de la descripción general de la IA sugiere que el usuario deba verificar esta información. «Es tan impreciso y tiene tantos errores que me sorprende que incluso exista», dice otro informe que detalla su absoluta inexactitud.

Los resúmenes de IA solo aparecen como una pepita condensada de información, que se muestra en la parte superior de la página de búsqueda de Google. Ahora, imagine una página completa que se presenta a los usuarios como una presentación larga, con algunos enlaces de origen intercalados a través del muro de texto.

Google dice que AI Overviews sobresaldrá en «codificación, matemáticas avanzadas y consultas multimodales». Sin embargo, no hace mucho tiempo, se equivocó en los hechos y le dio la vuelta a la historia, especialmente con el tipo de consultas en lenguaje natural que se están promocionando para el modo de IA.

Cuando se le preguntó si los astronautas conocieron gatos en la Luna, coincidió con confianza en que era cierto, y agregó que los astronautas incluso cuidaron de esos gatos lunares. La experta en alfabetización digital de Virginia Tech, Julia Feerrar, comentó que la IA en realidad no sabe las respuestas a nuestras preguntas, citando un ejemplo en el que la descripción general de Google AI mencionó con confianza a Barack Obama como el primer presidente musulmán.

Las consecuencias de la desinformación sobre la IA podrían ser desastrosas, especialmente cuando se trata de consultas relacionadas con la salud y el bienestar. En un análisis de más de 30 millones de páginas de resultados de motores de búsqueda (SERP), SerpStat descubrió que la búsqueda relacionada con la salud es la categoría más popular en la que aparecen los resúmenes de IA.

Esta es la misma herramienta que sugirió que una persona debería comer al menos una piedra por día, agregar un octavo de taza de pegamento a la pizza, beber orina para expulsar cálculos renales y mencionó que un elefante bebé puede caber en la palma de una mano humana a partir de 2025.

Esta no es la evolución de la Búsqueda que busco

Falla de la descripción general de la IA de Google.
Nadeem Sarwar / DT

A pesar de las afirmaciones de Google sobre cómo han evolucionado los modelos de IA, la situación no ha mejorado drásticamente. Hace menos de un día, Futurism descubrió AI Overviews afirmando con confianza que MJ Lenderman ha ganado 14 premios Grammy.

Incluso me equivoqué en el año, cuando pregunté algo tan simple como «¿es 2025?» en el cuadro de búsqueda de Google. «No, actualmente no estamos en el año 2025. El año actual es 2024», dijo AI Overview.

Yendo un paso más allá, explicaba cómo 2025 es un año común que comienza un miércoles, agregando un montón de información no relacionada que habla de todo, desde celebraciones nacionales hasta declaraciones de la ONU que no tienen absolutamente nada que ver con mi consulta.

Ahora bien, no estoy totalmente en contra de la IA. Por el contrario, utilizo ampliamente herramientas como Gemini Deep Research y, a menudo, confío en el último modelo Gemini 2.0 Flash AI para obtener ideas creativas cuando mis células cerebrales no se disparan a su máxima capacidad.

Sin embargo, llevar una revisión de IA propensa a errores a una fuente de información tan indispensable como la Búsqueda de Google es una propuesta arriesgada. Digital Trends se ha puesto en contacto con Google y actualizará esta historia una vez que recibamos una respuesta.

Google Gemini facilita la navegación web para usuarios con problemas de visión y audición
Google Gemini Navegación Talk Back

Los dispositivos Android han ofrecido una función de lector de pantalla incorporada llamada TalkBack durante años. Ayuda a las personas con problemas de visión a dar sentido a lo que aparece en la pantalla de su teléfono y les permite controlarlo con la voz. En 2024, Google añadió su Gemini AI a la mezcla para ofrecer a los usuarios una descripción más detallada de las imágenes.

Google ahora lo está reforzando con una capa completamente nueva de conveniencia interactiva para los usuarios. Hasta ahora, Géminis solo ha descrito imágenes. Ahora, cuando los usuarios miran imágenes, incluso pueden hacer preguntas de seguimiento sobre ellas y tener una conversación más detallada.

Leer más
Ahora la IA de Google potencia su búsqueda directa por imágenes
Logo de Google

Google sigue mejorando sus búsquedas y opciones de preguntas en su IA, ya que este lunes 7 de abril anunció que su modo IA de búsqueda ahora abrirá más opciones para preguntas y respuestas solo con imágenes y fotografías.

La nueva funcionalidad de análisis de imágenes en el modo AI está impulsada por las capacidades multimodales de Google Lens, dijo Google en una publicación de blog el lunes.

Leer más
Google lanza Gemini 2.5 Pro, su «modelo de IA más inteligente» hasta la fecha
Gemini 2.5 Pro

En una publicación de blog, Google anunció Gemini 2.5 Pro (experimental) para desarrolladores y suscriptores avanzados, con el objetivo de ayudarlo a abordar problemas cada vez más complejos. Es el primero de la familia y está preparado para "pensar" antes de hablar.
Google dice que estará disponible hoy en Google AI Studio (su plataforma para desarrolladores) y para los suscriptores avanzados, con soporte para Vertex AI próximamente. Google también afirma superar a la competencia, y que Gemini 2.5 Pro ocupa el primer lugar en la tabla de clasificación de LMArena con un 18,8%, superando a otros modelos de IA como ChatGPT y Deepseek.
"Gemini 2.5 Pro es de última generación en una variedad de puntos de referencia que requieren un razonamiento avanzado. Sin técnicas de tiempo de prueba que aumenten el costo, como la votación mayoritaria, 2.5 Pro lidera en puntos de referencia de matemáticas y ciencias como GPQA y AIME 2025. También obtiene una puntuación de última generación del 18,8% en modelos sin uso de herramientas en Humanity's Last Exam, un conjunto de datos diseñado por cientos de expertos en la materia para capturar la frontera humana del conocimiento y el razonamiento".
Si ya está suscrito a Gemini Advanced, puede usar Gemini 2.5 Pro sin costo adicional, pero si necesita usarlo a mayor escala, Google publicará los precios en las próximas semanas para el uso más alto. Con 2.5 Pro, obtienes una ventana de contexto de un millón, pero pronto habrá una ventana de dos millones. Google también dice que Gemini 2.5 Pro puede manejar problemas difíciles de fuentes como audio, texto, imágenes, repositorios de código completos y video.
 

Leer más