Skip to main content
  1. Home
  2. Tendencias
  3. Features

Inédito: Juez colombiano utilizó ChatGPT para realizar un fallo

Add as a preferred source on Google

La fuerza que está tomando ChatGPT ya está llegando a niveles insospechados, ya que en Colombia se supo recién del caso de un juez que falló en un caso usando la IA de OpenAI.

Juan Manuel Padilla, un juez en la ciudad caribeña de Cartagena, dijo que había buscado asesoramiento del chatbot en un caso que involucraba excluir a un niño autista de pagar tarifas por citas médicas, terapia y transporte, considerando los ingresos limitados de sus padres. Cabe señalar que también utilizó precedentes de fallos anteriores para confirmar su decisión.

Recommended Videos

El martes, Padilla dijo a Blu Radio que ChatGPT y otros programas de IA podrían resultar útiles para «facilitar la redacción de textos» pero «no para reemplazar» a los jueces. El 30 de enero, el juez falló a favor del niño, afirmando que los gastos médicos y los costos de transporte del niño deberían ser pagados por su plan médico, y escribió en su sentencia que había consultado a ChatGPT sobre el caso. El primer juzgado laboral de Cartagena argumentó que aplicó la Ley 2213 de 2022, según la cual se pueden utilizar herramientas virtuales en ciertos casos.

Imagen utilizada con permiso del titular de los derechos de autor

Sin embargo, el juez no ha especificado hasta qué punto el bot generador de texto lo había ayudado.

Padilla defendió su uso de la tecnología, insistiendo en que «haciendo preguntas a la aplicación, no dejamos de ser jueces, seres pensantes».

En este caso, Padilla dijo que le preguntó al bot: «¿Se exonera al menor autista de pagar tarifas por sus terapias?», entre otras preguntas.

Respondió: «Sí, esto es correcto. De acuerdo con las regulaciones en Colombia, los menores diagnosticados con autismo están exentos de pagar tarifas por sus terapias.

El mismo juez Padilla eso sí realizó una reflexión sobre el uso de IA:

«Los jueces deben ser conscientes de la evolución de la justicia y la tecnología. Desde la pandemia, en Colombia, comenzamos a implementar tecnologías en los tribunales y esta es una ventana enorme, hoy podría ser ChatGPT, pero puede surgir más herramientas más adelante para que los jueces las usen. Esta inteligencia artificial nos ayuda a crear oraciones muy comprensibles, con buena escritura y demás», explicó Padilla.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Topics
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more