Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

«Robots asesinos» preocupan a los organismos de derechos humanos

Los robots asesinos dejaron de ser personajes de películas de ciencia ficción. Con el avance de la inteligencia artificial, ya existen prototipos de máquinas mortíferas que tienen la capacidad de elegir sus objetivos de forma autónoma.

Este avance preocupa a los organismos internacionales de derechos humanos, como Human Rights Watch (HRW) que este lunes presentó un informe sobre los robots asesinos, informó Digit.

El estudio, publicado por Human Rights Watch, sugiere que un número creciente de países apoyaría planes para prohibir a las armas autónomas y evitar un mayor desarrollo de dichos sistemas.

“Deteniendo a los robots asesinos: posiciones de los países sobre la prohibición de armas totalmente autónomas y el mantenimiento del control humano” revisa las políticas de 97 países que han debatido públicamente o han considerado el uso de sistemas autónomos de armas desde 2013.

“Treinta países han expresado su deseo de establecer un tratado internacional, mientras que varios legisladores, expertos en inteligencia artificial, empresas privadas y organizaciones internacionales también han respaldado los llamados para prohibir los sistemas de armas autónomos”, destaca la entidad.

“Eliminar el control humano del uso de la fuerza se considera ahora una grave amenaza para la humanidad que, como el cambio climático, merece una acción multilateral urgente. Un tratado de prohibición internacional es la única manera eficaz de hacer frente a los graves desafíos que plantean las armas totalmente autónomas”, destacó Mary Wareham, directora de defensa de la división de armas de Human Rights Watch.

Las naciones han participado, entre 2014 y 2019, en ocho reuniones de la Convención sobre Armas Convencionales (CCW) donde se exploró el uso de sistemas autónomos de armas letales.

Países como Austria, Brasil y Chile han propuesto tratados jurídicamente vinculantes destinado a garantizar un “control humano significativo” sobre las funciones críticas de tales sistemas de armas.

Sin embargo, el informe señala que varias potencias militares, incluidas Rusia y Estados Unidos, han reprimido los esfuerzos para explorar la introducción de regulaciones.

Además, estas naciones continúan invirtiendo fuertemente en las aplicaciones militares de los sistemas de armas basados ​​en IA.

Recomendaciones del editor

Alejandro Manriquez
Ex escritor de Digital Trends en Español
EEUU propone un código de conducta para los “robots asesinos”
eeuu propone codigo conducta robots asesinos terminator robot

Estados Unidos rechazó las solicitudes que exigían que se regule o prohíba la utilización de los sistemas de armas autónomas letales, también conocidos como “robots asesinos”.

Durante una reunión de las Naciones Unidas celebrada en Ginebra, un funcionero de Estados Unidos rechazó la idea de regular su uso a través de un instrumento jurídicamente vinculante.

Leer más
Twitter reconoce que su algoritmo favorece los tuits de derecha
Una computadora con el logo de Twitter

Twitter realizó un estudio interno sobre qué tipo de contenido político tiene mayor alcance en la plataforma y descubrieron que el algoritmo favorece los tuits de derecha más que los de izquierda.

En una publicación en su blog, la red social explicó que el estudio se enmarca en una serie de investigaciones respecto a cómo opera su algoritmo en varios tópicos. Una de las conclusiones es que los medios de comunicación con tendencias políticas de derecha resultan más favorecidos por el algoritmo que organizaciones similares, pero de izquierda.

Leer más
Este perro robot asesino está lejos de ser el mejor amigo del hombre
La imagen muestra al perro robot fabricado por Ghost Robotics.

El perro robot más famoso del mundo es el de Boston Dynamics. Se llama Spot, un tierno y simpático prototipo autónomo que está pensado para la exploración, además de asistir en varias tareas.

Sin embargo, alguien pensó que Spot era un modelo muy básico o “inocente” y decidió crear un modelo mucho más agresivo.

Leer más