Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

Wikipedia adopta medidas contra el “comportamiento tóxico”

Add as a preferred source on Google

Un nuevo código de conducta tendiente a erradicar lo que calificó como «comportamiento tóxico» implementará la Fundación Wikimedia, la organización que administra la enciclopedia abierta Wikipedia.

La medida radica en las denuncias de abuso y acoso sufridas por colaboradores mujeres y miembros de la comunidad de lesbianas, gays, bisexuales, transexuales e intersexuales (LGBTI) por parte de otros redactores voluntarios.

Recommended Videos

Las reglas, que deberían de concretarse a finales de 2020, buscarán que mantener la cortesía como un valor fundamental, subrayó el consejo de administración de Wikimedia, según BBC.

«Debemos trabajar juntos para crear una cultura segura e inclusiva, en la cual todos se sientan bienvenidos, que sus contribuciones sean valoradas y que su perspectiva sea importante», dijo la directora ejecutiva de la Fundación Wikimedia, Katherine Maher.

«Nuestro objetivo es tener todo el conocimiento del mundo, y este es un paso esencial en nuestro viaje», manifestó.

De acuerdo con la versión de BBC, el código de conducta será vinculante para la comunidad y su trasgresión podría implicar limitaciones o la prohibición de acceso al sitio. Además, será sometido a un proceso de revisión con los propios voluntarios.

Si bien Wikipedia es una de las fuentes de información más confiables de internet, este tipo de denuncias han afectado a su comunidad durante la última década. Un estudio de la Universidad de Washington sobre la brecha de género en los editores de Wikipedia citado por BBC descubrió que muchas mujeres y editores LGBTI temían por su seguridad.

“Varias editoras dijeron a los investigadores que su trabajo había sido impugnado por voluntarios hombres o que recibieron comentarios negativos de un editor masculino”, ejemplificó el sitio.

Editores transgéneros comentaron a The New York Times situaciones similares durante 2019. De hecho, al menos uno recibió amenazas de muerte.

Aunque Wikipedia no es una red social como Facebook o Twitter, sus editores pueden interactuar entre ellos. La dinámica, según BBC, “ha llevado a una forma de acoso en la que, después de que un voluntario agrega información a una página, otro voluntario lo elimina o cambia momentos después, obligando al primer editor a rehacer su trabajo”.

Juan José Castillo
Former Digital Trends Contributor
Juan José se ha desempeñado por cerca de dos décadas como periodista en medios de comunicación e instituciones públicas…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more