Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

Científicos detectan el terremoto más profundo de la historia

Add as a preferred source on Google

Los terremotos se clasifican en tres grupos, según su profundidad: superficiales, intermedios y profundos. Estos últimos son aquellos cuyo origen (o hipocentro) está a más de 300 kilómetros (186 millas) de profundidad, y en esa categoría se enmarca el terremoto más profundo detectado en la historia.

El descubrimiento fue realizado por un grupo de científicos de la Universidad de Arizona e indica que el terremoto en cuestión fue una réplica de uno de 7.9 grados de magnitud ocurrido en 2015 cerca de las islas Ogasawara, ubicadas a 1,000 kilómetros (621 millas) al sur de Japón.

Recommended Videos

Sin embargo, esta réplica no se sintió en la superficie. Los científicos la encontraron mediante el sistema de detección de terremotos de Japón, uno de los más avanzados del mundo y las imágenes 4D obtenidas revelaron que el hipocentro del terremoto ocurrió en el manto inferior de la Tierra, que en teoría comienza a 660 kilómetros (410 millas) de profundidad.

Getty Images

Sin embargo, este descubrimiento genera algunas dudas respecto a los límites interiores del planeta, ya que sugiere que tal vez sean más difusos de lo que se creía. De acuerdo con la investigadora Heidi Houston, que no estuvo involucrada en el estudio original, las islas Ogasawara son “un lugar complicado” porque no se sabe exactamente dónde comienza el manto inferior y dónde termina el manto superior.

A lo anterior se suma el hecho de que, a tanta profundidad, los minerales del interior tienen un comportamiento extraño y distinto al esperado a menor profundidad. Por lo tanto, el origen de los terremotos en el manto inferior de la Tierra estaría dado por factores que hasta ahora se creían, al menos desde la teoría, imposibles de suceder.

De cualquier manera, el estudio original (cuyos autores son Eric Kiser, Haiyang Kehoe, Min Chen y Amanda Hughes) tiene que ser validado por otros científicos. Sin embargo, investigadores consultados por Live Science creen que la metodología utilizada es la correcta, al igual que los resultados obtenidos.

Raúl Estrada
Former Digital Trends Contributor
Raúl Estrada comenzó en el mundo de los medios de comunicación en 2009, mientras estudiaba ingeniería y escribía en…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more