Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Investigadores de IA advierten de la amenaza de la «extinción humana»

IA robot
Digital Trends Español

Más de una docena de empleados actuales y anteriores de OpenAI, Deep Mind de Google y Anthropic han publicado una carta abierta el martes llamando la atención sobre los «graves riesgos» que plantea continuar desarrollando rápidamente la tecnología sin contar con un marco de supervisión efectivo.

El grupo de investigadores argumenta que la tecnología podría ser mal utilizada para exacerbar las desigualdades existentes, manipular la información y difundir desinformación, e incluso «la pérdida de control de los sistemas autónomos de IA que podrían resultar en la extinción humana».

Recommended Videos

Los firmantes creen que estos riesgos pueden «mitigarse adecuadamente» a través de los esfuerzos combinados de la comunidad científica, los legisladores y el público, pero les preocupa que «las empresas de IA tengan fuertes incentivos financieros para evitar una supervisión efectiva» y no se pueda contar con ellas para administrar imparcialmente el desarrollo de la tecnología.

Desde el lanzamiento de ChatGPT en noviembre de 2022, la tecnología de IA generativa ha arrasado en el mundo de la informática con hiperescaladores como Google Cloud, Amazon AWS, Oracle y Microsoft Azure liderando lo que se espera que sea una industria de un billón de dólares para 2032. Un estudio reciente de McKinsey reveló que, en marzo de 2024, casi el 75% de las organizaciones encuestadas habían adoptado la IA en al menos una capacidad. Mientras tanto, en su encuesta anual Work Index, Microsoft descubrió que el 75% de los trabajadores de oficina ya utilizan la IA en el trabajo.

Sin embargo, como dijo Daniel Kokotajlo, ex empleado de OpenAI, a The Washington Post, «Ellos y otros han comprado el enfoque de ‘moverse rápido y romper cosas’, y eso es lo opuesto a lo que se necesita para una tecnología tan poderosa y tan poco comprendida». Las nuevas empresas de IA, incluidas OpenAI y Stable Diffusion, han infringido repetidamente las leyes de derechos de autor de EE. UU., por ejemplo, mientras que los chatbots disponibles públicamente son incitados rutinariamente a repetir discursos de odio y teorías de conspiración, así como a difundir información errónea.

Los empleados de IA que se oponen argumentan que estas empresas poseen «información sustancial no pública» sobre las capacidades y limitaciones de sus productos, incluido el riesgo potencial de los modelos de causar daños y la eficacia de sus barandillas de protección. Señalan que solo una parte de esta información está disponible para las agencias gubernamentales a través de «obligaciones débiles de compartir y ninguna de las cuales está disponible para el público en general».

«Mientras no haya una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden responsabilizarlas ante el público», declaró el grupo, argumentando que el amplio uso de acuerdos de confidencialidad por parte de la industria y la débil implementación de las protecciones existentes para los denunciantes están obstaculizando esos problemas.

El grupo pidió a las empresas de IA que dejen de celebrar y hacer cumplir acuerdos de no menosprecio, que establezcan un proceso anónimo para que los empleados aborden sus preocupaciones ante el consejo de administración de la empresa y los reguladores gubernamentales, y que no tomen represalias contra los denunciantes públicos en caso de que esos procesos internos resulten insuficientes.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Tus Historias de Instagram ahora tienen un lazo directo con la edición IA
Historias de Instagram

¿Qué ha pasado? Meta ha integrado sus herramientas de edición de imágenes y videos impulsadas por IA directamente en Instagram Stories.

En su anuncio, Instagram explica que los usuarios ahora pueden acceder a las herramientas a través de la nueva opción Restyle en el editor de Historias.

Leer más
¿Y ahora en quién confiamos?: La IA se equivoca hasta 45% en noticias
Cara de sorpresa

En la misma semana en que OpenAI está sacando su propio navegador web, ChatGPT Atlas, una nueva investigación de la Unión Europea de Radiodifusión (UER), encontró que los asistentes de IA "tergiversan rutinariamente el contenido de las noticias sin importar qué idioma, territorio o plataforma de IA se pruebe".

La UER reunió a 22 organizaciones de medios de comunicación de servicio público en 18 países y 14 idiomas para evaluar 3.000 respuestas relacionadas con noticias de algunos de los chatbots de IA más utilizados. ChatGPT de OpenAI, Microsoft Copilot, Google Gemini y Perplexity se evaluaron en función de criterios clave como la precisión, el abastecimiento, la distinción de opiniones de los hechos y la provisión de contexto.

Leer más
Tenemos una Kryptonita contra la IA: el clickbait
Kryptonita

Internet es el baúl casi infinito de la que se nutre y se alimenta la IA para entrenarse con sus grandes modelos de lenguaje (LLM), sin embargo, esa nutrición no es del todo buena para la salud de la inteligencia artificial.

Un equipo de investigación propuso y probó recientemente una teoría llamada "Hipótesis de la pudrición cerebral de LLM", que postulaba que cuantos más datos basura se introdujeran en un modelo de IA, peores serían sus resultados. Resulta que es una teoría bastante sólida, ya que un artículo preimpreso publicado en arXiv por el equipo muestra que la "podredumbre cerebral" afecta a los LLM y da como resultado deterioros cognitivos no triviales.

Leer más