Skip to main content

Humanos sí le ganan en algo a ChatGPT: en contabilidad

Una investigación de la Universidad Brigham Young quiso medir las habilidades existentes entre humanos y la IA de ChatGPT en la resolución de problemas de contabilidad. Los estudiantes obtuvieron un promedio general de 76.7%, en comparación con el puntaje de ChatGPT de 47.4%. En un 11.3% de las preguntas, ChatGPT obtuvo una puntuación más alta que el promedio de los estudiantes, obteniendo un desempeño particularmente bueno en AIS y auditoría.

«Cuando esta tecnología salió por primera vez, todos estaban preocupados de que los estudiantes ahora pudieran usarla para hacer trampa», dijo el autor principal del estudio, David Wood, profesor de contabilidad de BYU. «Pero las oportunidades para hacer trampa siempre han existido. Entonces, para nosotros, estamos tratando de enfocarnos en lo que podemos hacer con esta tecnología ahora que no podíamos hacer antes para mejorar el proceso de enseñanza para los profesores y el proceso de aprendizaje para los estudiantes. Probarlo fue revelador».

Imagen utilizada con permiso del titular de los derechos de autor

327 coautores de 186 instituciones educativas en 14 países participaron en la investigación, contribuyendo con 25,181 preguntas de exámenes de contabilidad en el aula. También reclutaron estudiantes de pregrado de BYU (incluida la hija de Wood, Jessica) para alimentar otras 2,268 preguntas del banco de pruebas de libros de texto a ChatGPT. Las preguntas abarcaban los sistemas de información contable (SIA), la auditoría, la contabilidad financiera, la contabilidad administrativa y los impuestos, y variaban en dificultad y tipo (verdadero/falso, opción múltiple, respuesta corta, etc.).

Cuando se trataba del tipo de pregunta, ChatGPT tuvo mejores resultados en preguntas verdaderas/falsas (68.7% correctas) y preguntas de opción múltiple (59.5%), pero tuvo problemas con las preguntas de respuesta corta (entre 28.7% y 39.1%). En general, las preguntas de orden superior eran más difíciles de responder para ChatGPT. De hecho, a veces ChatGPT proporcionaría descripciones escritas autorizadas para respuestas incorrectas, o respondería la misma pregunta de diferentes maneras.

Los investigadores también descubrieron algunas otras tendencias fascinantes a través del estudio, que incluyen:

  • ChatGPT no siempre reconoce cuando está haciendo matemáticas y comete errores sin sentido, como sumar dos números en un problema de resta o dividir números incorrectamente.
  • ChatGPT a menudo proporciona explicaciones para sus respuestas, incluso si son incorrectas. Otras veces, las descripciones de ChatGPT son precisas, pero luego procederá a seleccionar la respuesta de opción múltiple incorrecta.
  • ChatGPT a veces inventa hechos. Por ejemplo, al proporcionar una referencia, genera una referencia de aspecto real que está completamente fabricada. La obra y a veces los autores ni siquiera existen.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Descubren dos chatbots similares a ChatGPT, pero para realizar fraudes
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Un equipo de investigadores en ciberseguridad de Trustwave documentaron la existencia de dos chatbots que funcionan de forma similar a ChatGPT, pero que están específicamente diseñados para crear estafas. 

Estos softwares de modelo de lenguaje son conocidos como WormGPT y FraudGPT y se ofertan en la dark web bajo suscripciones mensuales o anuales, y hasta con la posibilidad de comprar un chatbot personalizado para realizar fraudes en línea. Los precios oscilan entre los $90 y los $200 dólares por una suscripción mensual, entre $500 y $1,000 dólares por una suscripción semestral y entre $800 y $1,700 dólares por un año completo de servicio.

Leer más
¿ChatGPT está filtrando contraseñas y conversaciones privadas?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Una situación preocupante está detectando en las últimas horas el sitio ArsTechnica, ya que en un informe indica que varios usuarios están entregando pantallazos de errores y filtraciones de datos y contraseñas de ChatGPT.

Un usuario en particular reportó pantallazos que contenían varios pares de nombres de usuario y contraseñas que parecían estar conectados a un sistema de apoyo utilizado por los empleados de un portal de medicamentos recetados de farmacia.

Leer más
Hay una imagen que está destruyendo a ChatGPT
imagen destruye chatgpt

DT
Enviar imágenes como indicaciones a ChatGPT sigue siendo una característica bastante nueva, pero en mis propias pruebas, funciona bien la mayor parte del tiempo. Sin embargo, alguien acaba de encontrar una imagen que ChatGPT parece no poder manejar, y definitivamente no es lo que esperas.

La imagen, descubierta por brandon_xyzw en X (antes Twitter), presenta algo de ruido digital. No es nada especial, en realidad, solo un fondo negro con algunas líneas verticales por todas partes. Pero si intentas mostrárselo a ChatGPT, la imagen rompe el chatbot todas y cada una de las veces, sin falta.

Leer más