Skip to main content

Por qué Llama 3 lo está cambiando todo en el mundo de la IA

Imagen utilizada con permiso del titular de los derechos de autor

En el mundo de la IA, sin duda has oído hablar de lo que OpenAI y Google han estado haciendo. Y ahora, el LLM (modelo de lenguaje grande) Llama de Meta se está convirtiendo en un jugador cada vez más importante en el juego, especialmente con su naturaleza de código abierto. Meta recientemente causó un gran revuelo con el lanzamiento de su modelo de IA Llama 3, y ha sacudido el campo dramáticamente.

Las razones son múltiples y variadas. Es de uso gratuito, tiene una amplia base de usuarios y, sí, es de código abierto, por nombrar solo algunos. He aquí por qué Llama 3 está arrasando en la industria de la IA y puede dar forma a su futuro durante algún tiempo.

Recommended Videos

Llama 3 es realmente bueno

Podemos debatir hasta que las vacas vuelvan a casa sobre lo útiles que son las IA como ChatGPT y Llama 3 en el mundo real, no son malas para enseñarte las reglas de los juegos de mesa, pero los pocos puntos de referencia que tenemos sobre la capacidad de estas IA le dan a Llama 3 una clara ventaja.

Algunos de los desarrolladores de Llama 3 han estado compartiendo pruebas comparando los últimos modelos con algunas de las principales alternativas y, en muchos casos, Llama 3 sale ganando. Estos puntos de referencia abarcan las matemáticas, el procesamiento del lenguaje natural, las habilidades de codificación y el conocimiento y la comprensión generales.

It’s here! Meet Llama 3, our latest generation of models that is setting a new standard for state-of-the art performance and efficiency for openly available LLMs.

Key highlights

• 8B and 70B parameter openly available pre-trained and fine-tuned models.
• Trained on more… pic.twitter.com/iaOBYaOli5

— Ahmad Al-Dahle (@Ahmad_Al_Dahle) April 18, 2024

Sin embargo, no te fíes solo de su palabra. Puedes probar Llama 3 contra sí mismo y contra una variedad de otros modelos de IA en la Arena de IA.

Una base de usuarios masiva existente

Cuando OpenAI lanzó ChatGPT, tuvo algunas partes interesadas iniciales, pero tuvo que hacer crecer su audiencia de forma orgánica. Lo hizo increíblemente rápido, registrando decenas de millones de usuarios tras el éxito de sus modelos GPT 3 y GPT 4. Pero Llama 3 de Meta ya está integrado en su IA de Meta, que se puede usar en Facebook, Instagram, WhatsApp y Messenger, así como en las versiones de la aplicación web de todos estos servicios.

No se trata de millones de usuarios existentes. Son miles de millones. Todo lo que Meta tiene que hacer para obtener más datos sobre cómo se usa Llama 3, o cómo mejorarlo para los usuarios cotidianos, es empujar a estos miles de millones de usuarios a probarlo. Se trata de un público cautivo con el que pocas empresas tecnológicas pueden siquiera acercarse a competir.

Es totalmente gratis

Si la fallida iniciativa Horizons VR del CEO de Meta, Mark Zuckerberg, nos mostró algo, es que Meta no tiene ningún problema en invertir decenas de miles de millones de dólares en proyectos que realmente no van a ninguna parte. Pero esa falta de monetización necesaria es una fortaleza increíble de una empresa que invierte en un campo tan vanguardista, porque mientras que otros desarrolladores de IA pueden necesitar obtener un retorno de su inversión relativamente rápido, Meta realmente no lo necesita.

Con su gigantesca infraestructura de centro de datos y su firme flujo de ingresos fundamental de sus diversos servicios, Meta puede fijar el precio de Llama 3 exactamente a $ 0 para todos. Puede permitirse el lujo de gastar miles de millones de dólares en potencia informática en la búsqueda de un mayor desarrollo de Llama 3 y futuros LLM. Eso hace que Llama 3 sea más accesible para sus miles de millones de usuarios que cualquier otra IA de primer nivel.

Es de código abierto

Mientras que el precio es importante para los usuarios, la transparencia del código es importante para los desarrolladores. A diferencia de las IA de plataformas propietarias, como ChatGPT y sus diversos modelos de lenguaje, Llama 3 es de código abierto. Eso significa que los desarrolladores pueden ver cómo se ejecuta y realizar cambios en él. Pueden iterar sobre él y llevar el proyecto en sus propias direcciones intrigantes. Eso fomenta una mayor adopción, ya que más desarrolladores podrán integrar el modelo Llama 3 en sus propios proyectos, y fomenta un mejor código, ya que más personas pueden influir en su desarrollo.

Eso tiene el potencial de hacer de Llama 3 una especie de estándar, afianzando para el futuro previsible.

Puede ejecutarse localmente

Uno de los mayores inconvenientes de las IA de grandes modelos de lenguaje como Gemini de Google, ChatGPT o iteraciones anteriores de Llama de Meta es que requieren una cantidad desmesurada de potencia informática, no solo en el entrenamiento, sino en el funcionamiento real. Es por eso que hay que pagar por el privilegio de usar algunas IA más exigentes, y por eso la respuesta a veces es lenta cuando el servicio está ocupado.

Pero Llama 3 puede ejecutarse localmente en hardware de computadora portátil de consumo. Requiere un poco de salto a través de aros, y necesitará mucha memoria para que funcione de manera efectiva (la computadora portátil utilizada en el siguiente ejemplo es la MacBook Pro M1 Max con 64 GB de memoria RAM), pero eso no es una gran barrera de entrada.

Run Llama 3 Locally with Open-WebUI

This video is NOT sped up. The model downloaded from @ollama (llama3:instruct), running with @OpenWebUI, on a Macbook Pro M1 Max 64G.

You can run it right now on your own machine (Windows, Linux, Mac) with 1 click. https://t.co/sDpI4TEiwa pic.twitter.com/qe5PIv3hQm

— cocktail peanut (@cocktailpeanut) April 18, 2024

Ahora bien, ese ejemplo no es el mejor modelo de Llama 3: se entrenó con 70 mil millones de tokens (palabras o puntos de datos que conforman su comprensión), en lugar de los 15 billones del modelo superior. Llama 3 también está lejos de ser el primer LLM que se ejecuta localmente, pero es el más capaz hasta ahora, y sugiere que podríamos ver este tipo de IA ejecutada en teléfonos inteligentes, gafas inteligentes, auriculares de realidad virtual y otros dispositivos en un futuro cercano.

Y esto es solo el principio

Llama 3 es increíble, pero hay muchas cosas que aún no puede hacer. Actualmente está completamente basado en texto, lo que significa que no es la IA multimodal que hemos visto con ChatGPT y servicios similares. No puede procesar vídeo, ni audio, ni imágenes. No puede responder a órdenes vocales ni responderte. Actualmente solo funciona con el idioma inglés.

Pero pronto será capaz de hacer todas esas cosas, y probablemente más. Llama 3 es un disparo de advertencia para muchos desarrolladores de IA que señalan que el tiempo de las nuevas empresas más pequeñas que se roban el protagonismo en el desarrollo de IA puede haber terminado. Sin el tipo de respaldo financiero, tecnológico y de infraestructura de una empresa como Meta, competir directamente podría ser muy difícil.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
5 laptops que deberías comprar en vez de la MacBook Pro M3
Una fotografía de la ASUS ROG Zephyrus G14 2024.

La MacBook Pro M3 es fantástica. Y si bien ninguna laptop Windows es capaz de igualarla en términos de potencia y autonomía, hay algunos modelos que ofrecen características similares a un precio considerablemente menor. Así que si eres un usuario de Windows que busca una laptop similar en potencia y diseño a la portátil de Apple, aquí te dejamos 5 laptops que deberías comprar en vez de la MacBook Pro.
Asus ROG Zephyrus G14

Hay un montón de laptops gamer que pueden competir en términos de potencia con la MacBook Pro, pero no en cuanto a diseño y portabilidad. Sin embargo, la rediseñada Asus ROG Zephyrus G14 iguala a la MacBook Pro en términos de diseño, con un chasis de aluminio increíblemente bello que es tan delgado y ligero como el de la portátil de Apple.

Leer más
5 laptops que deberías comprar en vez de la MacBook Air M3
La Acer Swift Edge 16.

Hay muchas y muy buenas razones para considerar a la MacBook Air M3 como una de las mejores laptops de 13 o 15 pulgadas. Sin embargo, hay un aspecto crucial a considerar: la de 13 pulgadas arranca en $1,099 dólares, mientras que la de 15 pulgadas cuesta al menos $1,299 dólares, y por esos precios solo obtienes 256 GB de almacenamiento. Por eso, a menos que estés casado con Mac OS, hay opciones bastante serias a considerar si estás dispuesto a ir por una computadora Windows, o incluso una Chromebook. Aquí te dejamos 5 laptops que deberías comprar en vez de la MacBook Air M3.
Asus Zenbook S 13 OLED

Pongámoslo de esta forma: la Asus Zenbook S 13 OLED es apenas 0.02 pulgadas más gruesa que la MacBook Air M3, pero también es 0.5 libras más ligera que la más compacta de las portátiles de Apple. Y lo cierto es que por unos $1,100 dólares (espera por una oferta), tendrás el doble de almacenamiento y una increíble pantalla OLED 3K que luce simplemente fabulosa.

Leer más
Google te muestra cómo cambiará Gmail con toda la IA de Gemini

A partir de hoy tras ser anunciado en Google I/O 2024, Gemini estará en el panel lateral de Gmail, Documentos, Drive, Presentaciones y Hojas de cálculo usando Gemini 1.5 Pro. Con una ventana de contexto más larga y un razonamiento más avanzado, Géminis puede responder a una variedad más amplia de preguntas y proporcionar respuestas más perspicaces. Además, es fácil comenzar con resúmenes que aparecerán en el panel lateral, indicaciones sugeridas y más.
Gracias a la ventana de contexto más larga, Gemini puede hacer referencia a conjuntos de datos mucho más grandes.
https://twitter.com/Google/status/1790441491338264973
Cómo cambiará Gemini IA la experiencia en Gmail

Resumir los correos electrónicos: Ponerse al día con los largos hilos de correo electrónico puede llevar mucho tiempo desde cualquier dispositivo, pero es especialmente difícil en pantallas pequeñas. Con esta función, Gemini puede analizar los hilos de correo electrónico y proporcionar una vista resumida directamente en la aplicación Gmail. Simplemente toque el botón de resumen en la parte superior de su hilo de correo electrónico para obtener los aspectos más destacados. Esto estará disponible para los usuarios de Workspace Labs este mes, y para todos los clientes de Gemini for Workspace y los suscriptores de Google One AI Premium el próximo mes.
Respuesta inteligente contextual: durante años, los usuarios de Gmail han ahorrado tiempo con las respuestas sugeridas de Respuesta inteligente, las sugerencias a medida que escribes de Redacción inteligente y los borradores de correo electrónico completos de Ayúdame a escribir. Pronto, Gemini en Gmail ofrecerá respuestas sugeridas aún más detalladas y matizadas basadas en el contexto de su hilo de correo electrónico. Con la respuesta inteligente contextual, puede editar o simplemente enviar tal cual. Estará disponible para los usuarios de Workspace Labs en dispositivos móviles y web a partir de julio.
Preguntas y respuestas de Gmail: Pronto, cuando hagas clic en el nuevo icono de Gemini en la aplicación móvil, Gemini en Gmail ofrecerá opciones útiles, como "resumir este correo electrónico", "enumerar los próximos pasos" o "sugerir una respuesta". Y al igual que en el panel lateral del escritorio, puede utilizar el cuadro de solicitud abierto cuando tenga solicitudes más específicas. Por ejemplo, puedes pedirle a Gemini que "encuentre la oferta del contratista de techos" que está enterrada en algún lugar de tu bandeja de entrada. O tal vez no quieras buscar en tu Drive el documento con detalles sobre tu club de lectura. En su lugar, podrías preguntarle a Géminis: "¿Cuáles son las preguntas de discusión para mi próxima reunión del club de lectura?" Las preguntas y respuestas de Gmail estarán disponibles para los usuarios de Workspace Labs en dispositivos móviles y en la Web a partir de julio.

Leer más