Skip to main content

Wikipedia adopta medidas contra el “comportamiento tóxico”

Un nuevo código de conducta tendiente a erradicar lo que calificó como «comportamiento tóxico» implementará la Fundación Wikimedia, la organización que administra la enciclopedia abierta Wikipedia.

La medida radica en las denuncias de abuso y acoso sufridas por colaboradores mujeres y miembros de la comunidad de lesbianas, gays, bisexuales, transexuales e intersexuales (LGBTI) por parte de otros redactores voluntarios.

Recommended Videos

Las reglas, que deberían de concretarse a finales de 2020, buscarán que mantener la cortesía como un valor fundamental, subrayó el consejo de administración de Wikimedia, según BBC.

«Debemos trabajar juntos para crear una cultura segura e inclusiva, en la cual todos se sientan bienvenidos, que sus contribuciones sean valoradas y que su perspectiva sea importante», dijo la directora ejecutiva de la Fundación Wikimedia, Katherine Maher.

«Nuestro objetivo es tener todo el conocimiento del mundo, y este es un paso esencial en nuestro viaje», manifestó.

De acuerdo con la versión de BBC, el código de conducta será vinculante para la comunidad y su trasgresión podría implicar limitaciones o la prohibición de acceso al sitio. Además, será sometido a un proceso de revisión con los propios voluntarios.

Si bien Wikipedia es una de las fuentes de información más confiables de internet, este tipo de denuncias han afectado a su comunidad durante la última década. Un estudio de la Universidad de Washington sobre la brecha de género en los editores de Wikipedia citado por BBC descubrió que muchas mujeres y editores LGBTI temían por su seguridad.

“Varias editoras dijeron a los investigadores que su trabajo había sido impugnado por voluntarios hombres o que recibieron comentarios negativos de un editor masculino”, ejemplificó el sitio.

Editores transgéneros comentaron a The New York Times situaciones similares durante 2019. De hecho, al menos uno recibió amenazas de muerte.

Aunque Wikipedia no es una red social como Facebook o Twitter, sus editores pueden interactuar entre ellos. La dinámica, según BBC, “ha llevado a una forma de acoso en la que, después de que un voluntario agrega información a una página, otro voluntario lo elimina o cambia momentos después, obligando al primer editor a rehacer su trabajo”.

Juan José Castillo
Ex escritor de Digital Trends en Español
Juan José se ha desempeñado por cerca de dos décadas como periodista en medios de comunicación e instituciones públicas…
Las patéticas «muertes» de Elon Musk en Path of Exile 2 
Elon Musk pensativo

Un momento bastante extraño y que quedará para la posteridad es el que vivió Elon Musk, quien aprovechó un vuelo en avión para probar las bondades de la conexión a internet de Starlink en el aire, jugando Path of Exile 2.

Sin embargo, el experimento no salió del todo bien como el administrador del DOGE de la Casa Blanca quería, ya que murió innumerables veces en la transmisión que hizo en directo en X, y además se ganó una sarta de improperios y malos comentarios por sus políticas en el gobierno de Donald Trump.

Leer más
Hay un truco en Midjourney para hacer imágenes de IA muy realistas de personas
Midjourney fotos

Las actualizaciones en los programas generadores de imágenes de IA están difuminando la delgada línea entre una fotografía real y una inventada por la inteligencia artificial. Y Midjourney con su nuevo modelo 7 está yendo un paso más allá.

Esto porque un usuario de X, Min Choi, descubrió que con una técnica y la utilización de un nombre de archivo genérico de cámaras como Canon, podría recibir como respuesta una imagen muy realista.

Leer más
Reino Unido desarrolla una herramienta algorítmica para predecir posibles asesinos
Algoritmo Asesinatos

El gobierno británico está trabajando en una herramienta de "predicción de asesinatos" destinada a identificar a las personas que tienen más probabilidades de convertirse en asesinos, informó The Guardian esta semana.

El proyecto, originalmente llamado "proyecto de predicción de homicidios", pero desde entonces rebautizado como "compartir datos para mejorar la evaluación de riesgos", está a cargo del Ministerio de Justicia del Reino Unido y utiliza algoritmos y datos personales, incluidos los del Servicio de Libertad Condicional, para hacer sus cálculos.

Leer más