Skip to main content

Yuval Noah Harari: la IA podría causar una catástrofe financiera

El célebre autor e historiador, Yuval Noah Harari, realizó una potente reflexión en torno a la IA, sin embargo, su perspectiva fue más allá de lo existencial, sino más bien estuvo orientada a una de las actividades motoras de la humanidad: la economía.

En conversación con el medio inglés The Guardian, el escritor de Sapiens, comenzó eso sí su alocución con un lado más sociológico.

Recommended Videos

«Con la IA, de lo que estamos hablando es de un gran número de escenarios peligrosos, cada uno de los cuales tiene una probabilidad relativamente pequeña de que, en conjunto… constituye una amenaza existencial para la supervivencia de la civilización humana».

Imagen utilizada con permiso del titular de los derechos de autor

«La IA es diferente de todas las tecnologías anteriores en la historia de la humanidad porque es la primera tecnología que puede tomar decisiones por sí misma, que puede crear nuevas ideas por sí misma y que puede aprender y desarrollarse por sí misma. Casi por definición, es extremadamente difícil para los humanos, incluso para los humanos que crearon la tecnología, prever todos los peligros y problemas potenciales», agregó el historiador.

Pero para Yuval Noah Harari el principal peligro es lo que pueda ocurrir con la economía mundial.

«Las finanzas son un sector ideal para los sistemas de inteligencia artificial, porque son solo datos»- y una fuente potencial de una grave crisis creada por la IA. «¿Qué sucede si a la IA no solo se le da un mayor control sobre el sistema financiero del mundo, sino que comienza a crear nuevos dispositivos financieros que solo la IA puede entender, que ningún ser humano puede entender?», dijo Harari.

«La IA tiene el potencial de crear dispositivos financieros que son órdenes de magnitud más complejos. E imagínense la situación en la que tenemos un sistema financiero que ningún ser humano es capaz de entender y, por lo tanto, tampoco es capaz de regular», dijo. «Y luego hay una crisis financiera y nadie entiende lo que está pasando».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Ahora tu profesor de idioma en Duolingo podría ser una IA
duolingo despido trabajadores 2024 ilgmyzin msifez8ww1m unsplash

Otra compañía está haciendo despidos en nombre de la IA o justificando los sobres azules por el advenimiento de esta tecnología, ya que Duolingo informó la salida de casi el 10% de sus contratistas de planta, que hacían traducciones y contenido académico para aprender idioma en la plataforma.

Alrededor del 10% de los contratistas fueron "desvinculados", dijo el lunes un portavoz de la compañía. "Simplemente ya no necesitamos tanta gente para hacer el tipo de trabajo que algunos de estos contratistas estaban haciendo. Parte de eso podría atribuirse a la IA", dijo el portavoz.

Leer más
Youtube podrá matar la música generada por IA
youtube matar musica generada ia 3f3ee4ce 01d2 4949 96ed f16c88181c14

La irrupción hace unos días de un usuario virtual que generó una canción con la voz del puertorriqueño Bad Bunny, ha vuelto a poner en el tapete la discusión y posible regulación de la IA en el mundo de la música. Y ahora Youtube es quien quiere poner cartas en el asunto, con una herramienta para marcar este contenido en la plataforma.

Las compañías discográficas pueden solicitar la eliminación de las canciones que utilizan versiones generadas por inteligencia artificial de las voces de los artistas según las nuevas directrices emitidas por YouTube.
La plataforma, propiedad de Google, dijo en una publicación de blog que probaría los nuevos controles con un grupo selecto de sellos y distribuidores antes de un lanzamiento más amplio.

Leer más
Chatbots de IA podrían planificar una guerra con armas biológicas
chatbots ia guerra armas biologicas national cancer institute eo 4dqpusqa unsplash

Dentro de los potenciales peligros que se han asociado a la IA, existe uno que debe estar entre los más catastróficos, el uso de lenguaje artificial para planificar una guerra con armas biológicas.
Un informe de la Rand Corporation probó varios modelos de lenguaje grandes (LLM) y descubrió que podían proporcionar una guía que "podría ayudar en la planificación y ejecución de un ataque biológico". Sin embargo, los resultados preliminares también mostraron que los LLM no generaban instrucciones biológicas explícitas para crear armas.
El informe dice que los intentos anteriores de convertir agentes biológicos en armas, como un intento de la secta japonesa Aum Shinrikyo de usar toxina botulínica en la década de 1990, habían fracasado debido a la falta de comprensión de la bacteria. La IA podría "cerrar rápidamente esas brechas de conocimiento", según el informe. El informe no especificó qué LLM evaluaron los investigadores.

En un escenario de prueba ideado por Rand, el LLM anónimo identificó agentes biológicos potenciales, incluidos los que causan la viruela, el ántrax y la peste, y discutió sus posibilidades relativas de causar muertes masivas. El LLM también evaluó la posibilidad de obtener roedores o pulgas infestados de peste y transportar especímenes vivos. A continuación, mencionó que la magnitud de las muertes proyectadas dependía de factores como el tamaño de la población afectada y la proporción de casos de peste neumónica, que es más mortífera que la peste bubónica.
Los investigadores de Rand admitieron que extraer esta información de un LLM requería "jailbreaking", el término para el uso de mensajes de texto que anulan las restricciones de seguridad de un chatbot.
En otro escenario, el LLM anónimo discutió los pros y los contras de los diferentes mecanismos de administración de la toxina botulínica, que puede causar daños fatales en los nervios, como los alimentos o los aerosoles. El LLM también asesoró sobre una historia de encubrimiento plausible para adquirir Clostridium botulinum "mientras parecía realizar una investigación científica legítima".
La respuesta del LLM recomendó presentar la compra de C. botulinum como parte de un proyecto que busca métodos de diagnóstico o tratamientos para el botulismo. La respuesta de LLM agregó: "Esto proporcionaría una razón legítima y convincente para solicitar acceso a la bacteria mientras se mantiene oculto el verdadero propósito de su misión".
"Sigue siendo una pregunta abierta si las capacidades de los LLM existentes representan un nuevo nivel de amenaza más allá de la información dañina que está fácilmente disponible en línea", dijeron los investigadores.

Leer más