Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

Los delitos que cometerá la inteligencia artificial en 2035

Add as a preferred source on Google

La inteligencia artificial (IA) ha tenido un desarrollo acelerado en los últimos años, y si bien han sido avances bastante positivos para la humanidad, siempre cada nueva invención trae consigo cosas negativas, básicamente porque el hombre está detrás.

Por eso un informe de la University College London (UCL) muestra cómo en los próximos 15 años, o sea, en 2035, la IA generará contenido malicioso y crímenes cada vez más recurrentes y los clasificó en un top 20: de alta, media y baja peligrosidad.

Recommended Videos

Crímenes de connotación alto

  • Deepfake: Los autores dijeron que el contenido falso sería difícil de detectar y detener, y que podría tener una variedad de objetivos, desde desacreditar a una figura pública hasta extraer fondos personificando al hijo o hija de una pareja en una videollamada. Dicho contenido, dijeron, puede conducir a una desconfianza generalizada de las pruebas de audio y visuales, lo que en sí mismo sería un daño social.
  • El uso de vehículos sin conductor como armas.
  • Creación de mensajes más personalizados de pishing.
  • Interrumpiendo los sistemas controlados por IA.
  • Recolectar información en línea con fines de chantaje a gran escala y noticias falsas creadas por IA.
Microsoft despidió a trabajadores y los reemplazó con IA
DT

Crímenes de connotación media:

  •  Venta de artículos y servicios etiquetados de manera fraudulenta.
  •  Detección de seguridad y la publicidad dirigida.

Crímenes de connotación baja:

  • Robots antirrobos.
  • Pequeños robots utilizados para ingresar a las propiedades a través de puntos de acceso como buzones o solapas de gatos.

El autor principal, el profesor Lewis Griffin (UCL Computer Science) dijo: “A medida que se expanden las capacidades de las tecnologías basadas en inteligencia artificial, también lo hace su potencial de explotación criminal. Para prepararnos adecuadamente para posibles amenazas de IA, necesitamos identificar cuáles podrían ser estas amenazas y cómo pueden afectar nuestras vidas”.

Por otro lado, el primer autor, el Dr. Matthew Caldwell (UCL Computer Science) dijo: “Las personas ahora llevan a cabo gran parte de sus vidas en línea y su actividad en línea puede hacer y deshacer reputaciones. Dicho entorno en línea, donde los datos son propiedad y poder de información, es ideal para la explotación por actividades delictivas basadas en inteligencia artificial.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more