Skip to main content
  1. Home
  2. Computación
  3. Features

¿Por qué ChatGPT es malo en matemáticas?

Add as a preferred source on Google

Cualquier usuario asiduo de ChatGPT sabe que el modelo de lenguaje amplio de OpenAI es malo en matemáticas. Sí, claro que resolverá problemas simples como una resta, pero cuando le pides una operación relativamente básica como una multiplicación con cifras medianamente grandes, ChatGPT comienza a mostrar sus carencias. ¿Por qué ChatGPT es malo en matemáticas? Hay varias razones, pero también algunas soluciones que podrían resultar interesantes desde un punto de vista de desarrollo que vamos a tratar de explicar.

Es que las matemáticas no son lo suyo

ChatGPT buscador
Digital Trends Español

Hay varias razones que explican por qué ChatGPT es malo en matemáticas. Quizá la más importante es el tipo de material con el que ha sido entrenado: internet. Nos explicamos. ChatGPT es un modelo de lenguaje amplio (large language model o LLM por sus siglas en inglés) diseñado para generar conversaciones similares a las que tendrían dos humanos. Para lograr esta característica fue entrenado con técnicas de deep learning, es decir, ChatGPT “aprende” de patrones y estructuras de millones de textos disponibles en internet. Con esa “fuente de conocimiento” genera respuestas relevantes según el contexto en el que se le pregunta.

Recommended Videos

Sin embargo, uno de los principales problemas es la naturaleza misma de ChatGPT, y con esto nos referimos a que se trata de un modelo generativo basado en probabilidad, lo que a su vez genera cierta incertidumbre en sus respuestas. En este sentido y debido a que las matemáticas son una ciencia en la que se requiere exactitud, el margen de incertidumbre de ChatGPT lo vuelve una mala opción para resolver problemas matemáticos.

Ahora viene la parte más obvia: ChatGPT está diseñado para generar textos similares a los que escribiría un humano, por lo que es fantástico actividades como practicar tu inglés o traducir textos de una manera menos artificial a como lo harían traductores como Google Translate. Sin embargo, si se le pide resolver problemas matemáticos o lógicos, es posible que los resultados sean deficientes.

¿Cómo hacer que ChatGPT sea mejor en matemáticas?

Primero, ¿por qué no pruebas GPT-4? Y es que esta versión se ubicó en el top 11 de puntuaciones de la Prueba de Matemáticas SAT, de la que resolvió 700 de 800 problemas.

Igual, la habilidad de ChatGPT, aun en su versión GPT-4, tiene sus entredichos. Y es que según reporta Baeldung, GPT-4 resolvió 30 de los 150 problemas de la prueba AMC 10 (la American Mathematics Competion, dirigida a estudiantes de décimo grado, pero 60 de los 150 problemas de la prueba AMC 12, dirigida a estudiantes de preparatoria. Es decir, fue más apto para resolver problemas complejos que operaciones con un nivel de dificultad menor.

Solo no olvides que tendrás que pagar una cuota de al menos $2.5 dólares por 1 millón de tokens.

Otra opción es que instales un plugin a ChatGPT como Wolfram. Su desarrollador, Stephen Wolfram, destaca que el plugin funciona haciendo que la solicitud o prompt vaya a Wolfram|Alpha para ser analizada y posteriormente resuelta con mayor precisión.

En una nota en su blog personal, Wolfram destaca dos ejemplos. Uno preguntándole a ChatGPT la distancia entre Chicago y Tokio, desglosada en millas / kilómetros, así como el tiempo que tomaría llegar al destino volando en avión. Sobre su habilidad matemática, Wolfram también permite a ChatGPT resolver y graficar una integral, así que por qué no lo pruebas.

Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
Topics
Asus: La RTX 5070 Ti y la RTX 5060 Ti 16 GB no han sido descontinuadas
Electronics, Hardware, Computer Hardware

La tarjeta gráfica RTX 5070 Ti ha sido objeto de un tira y afloja comunicacional. Tras diversos pronunciamientos contradictorios en redes sociales, ASUS finalmente aclaró su estrategia: continuará comercializando el modelo a pesar de los desafíos en la cadena de suministro relacionados con la disponibilidad de memoria especializada. Esta aclaración llega después de que la compañía generara confusión mediante publicaciones imprecisas sobre la supuesta descontinuación del producto.

La situación refleja tensiones internas en la industria de semiconductores, donde la demanda de memoria de alto rendimiento ha superado las expectativas de los proveedores. La RTX 5070 Ti, como generación intermedia de la línea GeForce, enfrenta presiones similares a otros componentes de la serie 50, pero ASUS ha decidido que su relevancia en el mercado justifica mantener su línea de producción activa.

Read more
Wikipedia 25 años: contra todo somos la columna vertebral del conocimiento
Wikipedia en español

Wikipedia, la mayor enciclopedia colaborativa en la historia de Internet, celebra hoy su vigésimo quinto aniversario desde su fundación el 15 de enero de 2001. Para conmemorar este significativo logro, la Fundación Wikimedia ha lanzado una campaña global denominada "Wikipedia25" bajo el lema "El conocimiento es humano", enfatizando el valor fundamental de la contribución humana en la era de la inteligencia artificial.

A lo largo de sus dos décadas y media de existencia, Wikipedia ha evolucionado desde cuatro artículos iniciales hasta un colosal repositorio que contiene más de 65 millones de artículos distribuidos en más de 300 idiomas, con un promedio de 15.000 millones de visitas mensuales. Este crecimiento extraordinario ha sido posible gracias a una comunidad global de aproximadamente 250.000 editores voluntarios que mensualmente dedican su tiempo y conocimiento a crear, verificar y mantener contenidos bajo rigurosos estándares de neutralidad y confiabilidad.

Read more
El truco supuestamente infalible para mejorar tus prompts en chatbots
ChatGPT

Si tu asistente de IA sigue dejando de lado detalles o hablando más allá de la pregunta, no necesitas un modelo nuevo para obtener mejores resultados. Pequeños cambios en mejores prompts de chatbot pueden limpiar gran parte del desastre.

Una solución es mecánica. Un artículo de investigación de Google destacado por VentureBeat señala un movimiento muy sencillo: pegar tu petición exacta dos veces en el mismo mensaje. Está pensado para aumentar la precisión en trabajos sencillos como la extracción, respuestas cortas y reescritura básica, no en razonamientos largos y de varios pasos.

Read more