Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

«Fuck the algorithm»: estudiantes ingleses son discriminados por algoritmo

Add as a preferred source on Google

El coronavirus y la incapacidad durante buena parte del año de poder asistir a las escuelas, ha hecho que en Reino Unido se haya tomado una determinación muy polémica que tiene en problemas a la comunidad educativa.

Resulta que todos los años se desarrolla el examen A-Levels, conocidos como las pruebas finales de la secundaria, sin embargo, por la contingencia de la pandemia, este 2020 el gobierno decidió que un algoritmo colocara las calificaciones.

Recommended Videos

El principal problema del algoritmo, es que además de las notas colocadas por los docentes, tomó en cuenta el historial del centro educativo y el lugar geográfico donde se encuentra, además de sus condiciones socioeconómicas.

Eso gatilló que al menos 300,000 alumnos vieran disminuidas sus notas reales en un 40%, perdiendo el acceso a las universidades.

Esto provocó la molestia de los estudiantes que salieron a protestar a las calles. En un vídeo publicado por Carole Cadwalladr (periodista en The Guardian), sale un grupo de adolescentes protestando al grito de ‘Fuck the algorithm’:

This is amazing. The future is here.

‘Fuck the algorithm’
pic.twitter.com/k4Vny0L4tF

— Carole Cadwalladr (@carolecadwalla) August 17, 2020

Dentro del grupo de alumnos perjudicados, han reclamado que si, por ejemplo, obtuvieron un A de calificación, esta bajó al menos un grado con el algoritmo.

my sister got her a-level results today! Her mock results were AAA, her centre assessed results were A*,A,A* which she 100% deserves yet because of clever Boris’ algorithm she’s ended up with BBC … HOW do you come to that result when NONE of her work has ever been graded that pic.twitter.com/yedAUl3LVc

— emily kate pettite (@emilypettite) August 13, 2020

Ante las protestas, la Primera Ministra de Escocia, Nicola Sturgeon, ha decidido anular los resultados y permitir que los alumnos utilicen las calificaciones que habían previsto sus profesores.

Robert Halfon, presidente del Comité de Selección de Educación, dijo a la BBC que «sembrar la confusión entre los alumnos, directores y profesores de escuela es lo último que necesitamos en este momento».

Esto ha llevado a la Oficina de Regulación de Calificaciones y Exámenes a cambiar de opinión. Finalmente se permitirá que los estudiantes puedan recurrir sus calificaciones utilizando las notas previstas por sus profesores.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more