Skip to main content
  1. Casa
  2. Tendencias
  3. Noticias
  4. News

Wikipedia adopta medidas contra el “comportamiento tóxico”

Un nuevo código de conducta tendiente a erradicar lo que calificó como «comportamiento tóxico» implementará la Fundación Wikimedia, la organización que administra la enciclopedia abierta Wikipedia.

La medida radica en las denuncias de abuso y acoso sufridas por colaboradores mujeres y miembros de la comunidad de lesbianas, gays, bisexuales, transexuales e intersexuales (LGBTI) por parte de otros redactores voluntarios.

Recommended Videos

Las reglas, que deberían de concretarse a finales de 2020, buscarán que mantener la cortesía como un valor fundamental, subrayó el consejo de administración de Wikimedia, según BBC.

«Debemos trabajar juntos para crear una cultura segura e inclusiva, en la cual todos se sientan bienvenidos, que sus contribuciones sean valoradas y que su perspectiva sea importante», dijo la directora ejecutiva de la Fundación Wikimedia, Katherine Maher.

«Nuestro objetivo es tener todo el conocimiento del mundo, y este es un paso esencial en nuestro viaje», manifestó.

De acuerdo con la versión de BBC, el código de conducta será vinculante para la comunidad y su trasgresión podría implicar limitaciones o la prohibición de acceso al sitio. Además, será sometido a un proceso de revisión con los propios voluntarios.

Si bien Wikipedia es una de las fuentes de información más confiables de internet, este tipo de denuncias han afectado a su comunidad durante la última década. Un estudio de la Universidad de Washington sobre la brecha de género en los editores de Wikipedia citado por BBC descubrió que muchas mujeres y editores LGBTI temían por su seguridad.

“Varias editoras dijeron a los investigadores que su trabajo había sido impugnado por voluntarios hombres o que recibieron comentarios negativos de un editor masculino”, ejemplificó el sitio.

Editores transgéneros comentaron a The New York Times situaciones similares durante 2019. De hecho, al menos uno recibió amenazas de muerte.

Aunque Wikipedia no es una red social como Facebook o Twitter, sus editores pueden interactuar entre ellos. La dinámica, según BBC, “ha llevado a una forma de acoso en la que, después de que un voluntario agrega información a una página, otro voluntario lo elimina o cambia momentos después, obligando al primer editor a rehacer su trabajo”.

Juan José Castillo
Ex escritor de Digital Trends en Español
Juan José se ha desempeñado por cerca de dos décadas como periodista en medios de comunicación e instituciones públicas…
Mira a este pequeño robot humanoide tirar de un coche con facilidad
Robot Unitree

Ya nos ha impresionado el asombroso equilibrio y control del robot humanoide G1 de Unitree, con un video anterior que lo muestra realizando volteretas y otros movimientos acrobáticos con aplomo, y otro que lo muestra recuperándose a gran velocidad después de ser empujado al suelo.

Ahora, investigadores de la Academia de Inteligencia Artificial de Beijing (BAAI) han entrenado a un robot Unitree G1 para tirar de un automóvil de 1.400 kilogramos a lo largo de una superficie plana. El robot en sí pesa solo 35 kilogramos y mide 132 centímetros, por lo que la hazaña parece bastante notable. Puedes verlo en el clip a continuación:

Leer más
Bill Gates: «No vamos a limitar el calentamiento global»
bill gates

A pocos días de la cumbre climática COP30 en Brasil, Bill Gates lanza un controvertido llamado a la comunidad internacional: es hora de cambiar radicalmente la forma en que abordamos el cambio climático. En un extenso documento publicado en su blog Gates Notes, el filántropo y empresario tecnológico argumenta que la obsesión por las metas de temperatura está desviando recursos de acciones más efectivas para mejorar vidas.

Tres verdades incómodas

Leer más
Tiburones en piscinas de hoteles: burdos deepfakes de huracán Melissa
Huracán Melissa

Mientras el huracán Melissa azotaba Jamaica con vientos récord esta semana, una tormenta paralela de desinformación generada por IA inundó las plataformas de redes sociales, creando confusión generalizada sobre el impacto real del huracán de categoría 5. Videos falsos que mostraban tiburones nadando en piscinas de hoteles, aeropuertos devastados y escenas de rescate fabricadas acumularon millones de visualizaciones en TikTok, X, Instagram y Facebook, provocando advertencias urgentes de funcionarios y verificadores de hechos.

El diluvio de contenido artificial, gran parte del cual fue creado utilizando el generador de texto a video Sora 2 recientemente lanzado por OpenAI, representa la primera prueba importante de cómo se propaga la desinformación generada por IA durante una crisis de desastre natural. Muchos videos llevaban marcas de agua claras de Sora, mientras que otros tenían marcas de identificación eliminadas o recortadas en aparentes intentos de engañar a los espectadores.

Leer más