Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. Redes sociales
  5. News

Google News te indicará si una noticia cuenta hechos comprobados

Add as a preferred source on Google

Con las elecciones presidencial del 2016 andando a toda marcha, la necesidad de saber qué es cierto y qué no lo es, es más importante que nunca.

Google acaba de anunciar que añadirá una etiqueta que indica si una noticia en su sección de noticias, cuenta hechos y cuenta con cifras comprobadas.

Recommended Videos

Relacionado: Twitter quiere ser una agencia de noticias

google-news
Imagen utilizada con permiso del titular de los derechos de autor

De acuerdo a un anuncio hecho en el blog de Google Keyword, la nueva etiqueta aparecerá dentro de la caja con opciones en el sitio web news.google.com o en la aplicación Google News para iOS y Android.

Para lograrlo, los curadores deben añadir una nueva línea de programación a los artículos cuya información ha sido comprobada, así como cumplir con una serie de indicaciones determinadas por la empresa.

Google detalla que “los lectores deben ser capaces de entender qué ha sido comprobada, y a qué conclusiones han llegado. Los análisis deben ser transparentes sobre las fuentes que han sido utilizadas y los métodos a través de los cuales se logró obtener la información, así como citas y referencias a fuentes primarias. La organización de debe tener preferencias partidistas y debe tener afiliaciones de ingresos transparentes”.

Algunos sitios ya adoptaron la nueva etiqueta, incluyendo el sitio web PolitiFact que escribe sobre política estadounidense, así como Full Fact, basado en el Reino Unido.

Es posible que estas etiquetas aparezcan a los usuarios de Google News apenas el debate presidencial del próximo 19 de octubre finalice.

Cuando alguno de los dos candidatos haga una declaración específica sobre algún tema, lo más probable es que por ejemplo, un artículo de PolitiFact que tenga la etiqueta de comprobación de Google News aparezca cuando otros reporteros escriban sobre lo dicho por Hillary Clinton o Donald Trump.

A pesar de que esta etiqueta no descalifica las historias falsas de aparecer en Google News, será más fácil desacreditar las historias falsas en el momento en que aparezcan en Google News.

Relacionado: Así distorsionan las redes sociales la política

Por ahora, menos de 10 dominios están utilizando la etiqueta, de acuerdo a schema.org.

Tanto Facebook como Twitter se unieron a las salas de prensa en un esfuerzo por disminuir la difusión de historias falsas en las redes sociales, así como en los motores de búsquedas.

Juliana Jara
Former Digital Trends Contributor
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more