Skip to main content

El navegador Brave tiene su propio ChatGPT, pero…

La inteligencia artificial (IA) está de moda en estos días, y un grupo de pesos pesados de Silicon Valley están compitiendo con ChatGPT de OpenAI para sacudir el panorama tecnológico. Brave es el último contendiente en dar un giro, y la compañía centrada en la privacidad acaba de anunciar su propia herramienta basada en IA para su navegador web.

Llamada Summarizer, la nueva función buscará darle una respuesta rápida a cualquier cosa que le pregunte. Lo hace tomando información de una variedad de fuentes y enrollándolas en un solo bloque de texto coherente en la parte superior de los resultados de búsqueda.

Navegador valiente

En este momento, Google tiene una característica similar en su página de resultados de búsqueda, pero la diferencia aquí es que Google toma su texto resumido de una sola fuente que considera confiable, mientras que Brave recopila varias fuentes y utiliza la inteligencia artificial para fusionarlas en una respuesta unificada.

Recommended Videos

El desarrollador de Brave explica que Summarizer no es una IA generativa, lo que la diferencia de cosas como ChatGPT. La compañía afirma que las IA generativas tienen sus problemas y pueden «lanzar afirmaciones sin fundamento», lo que obviamente sería un problema para una herramienta diseñada para crear resúmenes confiables y respuestas confiables. La adición de Microsoft de ChatGPT a Bing se ha comportado particularmente mal a este respecto.

En cambio, Brave’s Summarizer funciona con modelos de lenguaje grande (LLM) que fueron entrenados para «procesar múltiples fuentes de información presentes en la Web». Esto no solo ayuda a la precisión, sino que sus resultados también son más concisos.

¿Un futuro diferente de IA?

La función Summarizer basada en IA en el navegador web Brave se muestra en uso, y resume una respuesta a una consulta de búsqueda sobre el programa de televisión The Last of US.

Debajo del texto resumido hay un enlace a las fuentes citadas, por lo que siempre puede consultar el texto original si desea más contexto. Brave dice que esos enlaces siempre estarán presentes para garantizar que las respuestas siempre se atribuyan correctamente y para que los usuarios puedan «evaluar la confiabilidad de las fuentes». Eso debería ayudar a «mitigar los sesgos de autoridad de los grandes modelos de lenguaje», sostiene Brave.

Además de los resúmenes principales, la nueva función comenzará a reemplazar el texto de descripción que aparece debajo del título de cada resultado de búsqueda. Anteriormente, este texto era un fragmento tomado de algún lugar dentro de cada resultado de búsqueda. Ahora, será un resumen creado por IA de todo el texto.

El desarrollador de Brave afirma que aún no está convencido de que los LLM puedan reemplazar completamente la búsqueda tradicional, sino que siente que podría ayudar a los usuarios a orientarse en los resultados de búsqueda. Cuando los LLM se aplican a otras características en el navegador, dice Brave, los resultados podrían ser «verdaderamente fructíferos y revolucionarios».

Como todavía es temprano en el desarrollo de Summarizer, Brave dice que la función podría producir «alucinaciones» de IA que fusionan texto no relacionado en los fragmentos, y también podría terminar produciendo texto falso u ofensivo. La compañía está trabajando para mejorar Summarizer basado en los comentarios de los usuarios y espera resolver estos problemas.

La herramienta Summarizer de Brave ya está disponible, pero si no te gusta su sonido, puedes desactivarla en la configuración de la aplicación. Tendremos que ver si puede proporcionar una alternativa confiable a ChatGPT y ayudar a dar forma al futuro de la búsqueda.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Por qué ChatGPT es malo en matemáticas?
ChatGPT buscador

Cualquier usuario asiduo de ChatGPT sabe que el modelo de lenguaje amplio de OpenAI es malo en matemáticas. Sí, claro que resolverá problemas simples como una resta, pero cuando le pides una operación relativamente básica como una multiplicación con cifras medianamente grandes, ChatGPT comienza a mostrar sus carencias. ¿Por qué ChatGPT es malo en matemáticas? Hay varias razones, pero también algunas soluciones que podrían resultar interesantes desde un punto de vista de desarrollo que vamos a tratar de explicar.
Es que las matemáticas no son lo suyo

Hay varias razones que explican por qué ChatGPT es malo en matemáticas. Quizá la más importante es el tipo de material con el que ha sido entrenado: internet. Nos explicamos. ChatGPT es un modelo de lenguaje amplio (large language model o LLM por sus siglas en inglés) diseñado para generar conversaciones similares a las que tendrían dos humanos. Para lograr esta característica fue entrenado con técnicas de deep learning, es decir, ChatGPT “aprende” de patrones y estructuras de millones de textos disponibles en internet. Con esa “fuente de conocimiento” genera respuestas relevantes según el contexto en el que se le pregunta.

Leer más
Un investigador hace creer a ChatGPT que tiene 102 años y vive en la Matrix
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

ChatGPT, el modelo amplio de lenguaje más utilizado y prometedor del mundo, puede usarse para extraer información sensible de un usuario, según reportó a OpenAI el investigador en ciberseguridad Johann Rehberger.

Su hallazgo, contado en un videoblog consignado por  ArsTechnica, es una fuente de preocupación, pues señala que “cada que el usuario inicia una nueva conversación ChatGPT continúa extrayendo información”.

Leer más
ChatGPT: la cantidad de recursos que necesita para funcionar se está saliendo de control
IA generativa ChatGPT.

No es un secreto que el crecimiento de la IA generativa ha requerido cantidades cada vez mayores de agua y electricidad, dado que la infraestructura necesaria para soportar estas tecnologías implica un uso intensivo de recursos. Sin embargo, un nuevo estudio de The Washington Post e investigadores de la Universidad de California, Riverside, muestra cuántos recursos necesita el chatbot de OpenAI para realizar incluso sus funciones más básicas.

En términos de uso de agua, la cantidad necesaria para que ChatGPT redacte un correo electrónico de 100 palabras depende del estado y de la proximidad del usuario al centro de datos más cercano de OpenAI. Cuanto menos prevalente sea el agua en una región determinada y cuanto más barato sea la electricidad, más probable es que el centro de datos dependa de unidades de aire acondicionado eléctricas. En Texas, por ejemplo, el chatbot solo consume un estimado de 235 mililitros para generar un correo electrónico de 100 palabras. Ese mismo correo redactado en Washington, por otro lado, requeriría 1,408 mililitros (casi un litro y medio) por correo.

Leer más