Skip to main content

¿Por qué ChatGPT es malo en matemáticas?

Cualquier usuario asiduo de ChatGPT sabe que el modelo de lenguaje amplio de OpenAI es malo en matemáticas. Sí, claro que resolverá problemas simples como una resta, pero cuando le pides una operación relativamente básica como una multiplicación con cifras medianamente grandes, ChatGPT comienza a mostrar sus carencias. ¿Por qué ChatGPT es malo en matemáticas? Hay varias razones, pero también algunas soluciones que podrían resultar interesantes desde un punto de vista de desarrollo que vamos a tratar de explicar.

Es que las matemáticas no son lo suyo

ChatGPT buscador
Digital Trends Español

Hay varias razones que explican por qué ChatGPT es malo en matemáticas. Quizá la más importante es el tipo de material con el que ha sido entrenado: internet. Nos explicamos. ChatGPT es un modelo de lenguaje amplio (large language model o LLM por sus siglas en inglés) diseñado para generar conversaciones similares a las que tendrían dos humanos. Para lograr esta característica fue entrenado con técnicas de deep learning, es decir, ChatGPT “aprende” de patrones y estructuras de millones de textos disponibles en internet. Con esa “fuente de conocimiento” genera respuestas relevantes según el contexto en el que se le pregunta.

Recommended Videos

Sin embargo, uno de los principales problemas es la naturaleza misma de ChatGPT, y con esto nos referimos a que se trata de un modelo generativo basado en probabilidad, lo que a su vez genera cierta incertidumbre en sus respuestas. En este sentido y debido a que las matemáticas son una ciencia en la que se requiere exactitud, el margen de incertidumbre de ChatGPT lo vuelve una mala opción para resolver problemas matemáticos.

Ahora viene la parte más obvia: ChatGPT está diseñado para generar textos similares a los que escribiría un humano, por lo que es fantástico actividades como practicar tu inglés o traducir textos de una manera menos artificial a como lo harían traductores como Google Translate. Sin embargo, si se le pide resolver problemas matemáticos o lógicos, es posible que los resultados sean deficientes.

¿Cómo hacer que ChatGPT sea mejor en matemáticas?

Primero, ¿por qué no pruebas GPT-4? Y es que esta versión se ubicó en el top 11 de puntuaciones de la Prueba de Matemáticas SAT, de la que resolvió 700 de 800 problemas.

Igual, la habilidad de ChatGPT, aun en su versión GPT-4, tiene sus entredichos. Y es que según reporta Baeldung, GPT-4 resolvió 30 de los 150 problemas de la prueba AMC 10 (la American Mathematics Competion, dirigida a estudiantes de décimo grado, pero 60 de los 150 problemas de la prueba AMC 12, dirigida a estudiantes de preparatoria. Es decir, fue más apto para resolver problemas complejos que operaciones con un nivel de dificultad menor.

Solo no olvides que tendrás que pagar una cuota de al menos $2.5 dólares por 1 millón de tokens.

Otra opción es que instales un plugin a ChatGPT como Wolfram. Su desarrollador, Stephen Wolfram, destaca que el plugin funciona haciendo que la solicitud o prompt vaya a Wolfram|Alpha para ser analizada y posteriormente resuelta con mayor precisión.

En una nota en su blog personal, Wolfram destaca dos ejemplos. Uno preguntándole a ChatGPT la distancia entre Chicago y Tokio, desglosada en millas / kilómetros, así como el tiempo que tomaría llegar al destino volando en avión. Sobre su habilidad matemática, Wolfram también permite a ChatGPT resolver y graficar una integral, así que por qué no lo pruebas.

Topics
Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
o1: OpenAI sube otro peldaño con IA que piensa de manera más compleja
o1 openai pensamiento complejo

Catherine Brownstein: OpenAI o1 & Genetics

Un nuevo escalón evolutivo acaba de subir OpenAI en su carrera por encontrar el modelo perfecto de IA, ya que este 12 de septiembre presentó o1, un sistema que se integrará a ChatGPT y está pensado para dar respuestas más complejas a preguntas más difíciles, específicamente ideado para campos laborales, de estudio y empresas.

Leer más
5 consideraciones de por qué la inteligencia artificial podría estar sobrevalorada
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

¿La inteligencia artificial está sobrevalorada? ¿Qué tal si inadvertidamente frente a nosotros se ha gestado la próxima gran crisis financiera? Bueno, varios se han hecho la pregunta. Hace poco me encontré con esta publicación de Greg Rosalsky, anfitrión del podcast Planet Money para NPR. Recomiendo totalmente que lo escuches si la pregunta que abre este artículo te parece relevante. A mí, un reportero de tecnología que prácticamente escucha, lee o quizá prueba alguna nueva aplicación supuestamente basada en inteligencia artificial, me da la impresión de que efectivamente lo está, y ruego que lo segundo no ocurra jamás. Como sea, después de escuchar su podcast y leer este artículo, quiero resumir los aspectos que me parecen más llamativos sobre por qué, efectivamente, la inteligencia artificial está sobrevalorada.
En realidad no es inteligente

¿Todos hablan de ChatGPT, cierto? Aunque actúa como un sistema que puede responder prácticamente la pregunta que le hagas, este y otros modelos de lenguaje actúan como una especie de agregador de lo mejor que pueden hallar en internet y lanzarlo a un recuadro de texto de forma más o menos coherente y legible. Si preguntas cuestiones básicas como qué es la religión o le pides escribir un artículo sobre todo lo que se sabe del iPhone 15, lo más probable es que los resultados parecerán excelsos. Pero si le preguntas alguna cuestión moralmente compleja y que involucre cierta verificación de datos lo más probable es que termine lanzando alguna barbaridad.
Su “fuente” de inteligencia se está agotando o ya le está cobrando
Fuera del medio tecnológico y económico el caso no ha tenido gran resonancia, pero varias compañías de medios de comunicación, por ejemplo The New York Times, comenzaron a demandar a empresas como OpenAI por utilizar sus artículos como “alimentos” para su modelo de lenguaje. 

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más