Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

«Robots asesinos» preocupan a los organismos de derechos humanos

Add as a preferred source on Google

Los robots asesinos dejaron de ser personajes de películas de ciencia ficción. Con el avance de la inteligencia artificial, ya existen prototipos de máquinas mortíferas que tienen la capacidad de elegir sus objetivos de forma autónoma.

Este avance preocupa a los organismos internacionales de derechos humanos, como Human Rights Watch (HRW) que este lunes presentó un informe sobre los robots asesinos, informó Digit.

Recommended Videos

El estudio, publicado por Human Rights Watch, sugiere que un número creciente de países apoyaría planes para prohibir a las armas autónomas y evitar un mayor desarrollo de dichos sistemas.

“Deteniendo a los robots asesinos: posiciones de los países sobre la prohibición de armas totalmente autónomas y el mantenimiento del control humano” revisa las políticas de 97 países que han debatido públicamente o han considerado el uso de sistemas autónomos de armas desde 2013.

“Treinta países han expresado su deseo de establecer un tratado internacional, mientras que varios legisladores, expertos en inteligencia artificial, empresas privadas y organizaciones internacionales también han respaldado los llamados para prohibir los sistemas de armas autónomos”, destaca la entidad.

“Eliminar el control humano del uso de la fuerza se considera ahora una grave amenaza para la humanidad que, como el cambio climático, merece una acción multilateral urgente. Un tratado de prohibición internacional es la única manera eficaz de hacer frente a los graves desafíos que plantean las armas totalmente autónomas”, destacó Mary Wareham, directora de defensa de la división de armas de Human Rights Watch.

Las naciones han participado, entre 2014 y 2019, en ocho reuniones de la Convención sobre Armas Convencionales (CCW) donde se exploró el uso de sistemas autónomos de armas letales.

Países como Austria, Brasil y Chile han propuesto tratados jurídicamente vinculantes destinado a garantizar un “control humano significativo” sobre las funciones críticas de tales sistemas de armas.

Sin embargo, el informe señala que varias potencias militares, incluidas Rusia y Estados Unidos, han reprimido los esfuerzos para explorar la introducción de regulaciones.

Además, estas naciones continúan invirtiendo fuertemente en las aplicaciones militares de los sistemas de armas basados ​​en IA.

Alejandro Manriquez
Former Digital Trends Contributor
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more