Skip to main content

¡Como en Minority Report! Un sistema de inteligencia artificial predice crímenes

Los programas de inteligencia artificial (IA) prometen ser capaces de hacer de todo: desde predecir el clima hasta manejar vehículos autónomos, por lo que no sorprende que también se estén aplicando en el área de la seguridad.

Ahora, la IA está siendo utilizada como parte integral de un nuevo concepto para sistemas de videovigilancia, con la promesa de frustrar la actividad delictiva. Pero esto no se trata de la simple detección de delitos en curso, sino que se lleva a cabo mediante la identificación de un delito o crimen antes de que suceda. Esa posibilidad podría parecer la trama de la película Minority Report, o algún episodio de Black Mirror, pero ya no es parte de la fantasía.

Imagen utilizada con permiso del titular de los derechos de autor

Conoce a Cortica

Cortica, una compañía israelí con profundas raíces en seguridad e investigación basada en la inteligencia artificial, formó recientemente una asociación en India con la empresa Best Group, para analizar los terabytes de transmisión de datos de cámaras CCTV en áreas públicas. Uno de los objetivos es mejorar la seguridad en lugares públicos, como calles de las ciudades, estaciones de autobuses y estaciones de tren.

Ya es común que las fuerzas del orden en ciudades como Londres y Nueva York empleen tecnología, como el reconocimiento facial y la detección de matrículas de autos, como parte de la vigilancia de sus cámaras de video. Pero la IA de Cortica promete llevarlos mucho más lejos al buscar «anomalías de comportamiento» que indiquen cuando alguien estaría a punto de cometer un crimen violento. El objetivo es prevenir el desarrollo de un crimen en curso, como agresiones, robos, o hasta ataques sexuales.

Al mantener vivo un pedazo de cerebro fuera del cuerpo, y conectarlo a un conjunto de microelectrodos, Cortica pudo estudiar cómo la corteza reaccionó a estímulos particulares.

El software se basa en el tipo de sistemas de control de seguridad militar y gubernamental, que ya están implementados para intentar identificar a posibles terroristas, monitoreando a las personas en tiempo real. Esta identificación se lleva a cabo buscando “microexpresiones”, que son movimientos o gestos minúsculos que podrían delatar las intenciones nefastas de alguna persona. Las señales reveladoras son tan pequeñas que pueden eludir a un detective con experiencia, pero no pueden engañar a los ojos que nunca duermen de la inteligencia artificial.

En una reunión en Tel Aviv antes de que se anunciara el acuerdo, la cofundadora Karina Odinaev explicó que el software de Cortica tiene la intención de abordar varios desafíos, especialmente en la identificación de objetos que no se clasifican fácilmente de acuerdo con los estereotipos tradicionales. Un ejemplo dado fue el tipo de eventos únicos que los programas que controlan vehículos sin conductor tendrán que ser capaces de manejar en el futuro, como detectar si alguna carga se cayó de un camión autónomo al dar vuelta la esquina. «Para eso, necesitas aprendizaje IA sin supervisión», dijo Odinaev. En otras palabras, el software tiene que aprender de la misma manera que los humanos aprenden.

Manipulando el cerebro

Para crear dicho programa, Cortica no siguió la ruta de la red neuronal, que a pesar de su nombre se basa en probabilidades y modelos de computación en lugar de en cómo funcionan los cerebros reales. En cambio, la empresa fue a la fuente, en este caso, un segmento cortical del cerebro de una rata. Al mantener vivo un pedazo de cerebro fuera del cuerpo, y conectarlo a un conjunto de microelectrodos, Cortica pudo estudiar cómo la corteza reaccionó a estímulos particulares.

Al monitorear las señales eléctricas de la sección de cerebro, los investigadores pudieron identificar grupos específicos de neuronas llamadas “cliques”, que procesaban conceptos específicos. A partir de ahí, la compañía construyó archivos de algoritmos y modelos matemáticos para simular los procesos originales en el cerebro.

El resultado, de acuerdo con Cortica, es un enfoque de la IA que permite el aprendizaje avanzado sin dejar de ser transparente. En otras palabras, si el sistema comete un error anticipando falsamente que algún crimen está a punto de suceder, los programadores pueden rastrear fácilmente el problema hasta el archivo responsable de la secuencia errónea.

Una visión futurista algo preocupante

Pero se espera que el software de Cortica haga mucho más en los años por venir. Podría, por ejemplo, usarse en futuros robotaxis para monitorear el comportamiento de los pasajeros y prevenir ataques sexuales o robos violentos.

El software de Cortica es bastante impresionante. Puede combinar datos no solo de cámaras de video, sino también de drones y satélites. Además, puede aprender a juzgar las diferencias de comportamiento, no solamente para separara a las personas respetuosas de la ley y delincuentes con antecedentes, sino también puede distinguir entre un mercado que esté lleno de gente, pero pacífico, y una manifestación política que está a punto de tornarse violenta.

Dicha información predictiva permitiría a una ciudad desplegar fuerzas del orden en una situación potencialmente peligrosa, antes de que se pierdan vidas.

Pero la pregunta que muchos se hacen es ¿podrían esas buenas intenciones convertirse en escenarios de pesadilla y control, como los que inspiraron a tantas películas de ciencia ficción? En las manos equivocadas, este tipo de software podría ser abusado. Un régimen despótico, por ejemplo, podría usar esa información para reprimir la disidencia y arrestar a las personas, antes de que siquiera tuvieran la oportunidad de organizar una protesta.

Este es, por ejemplo, uno de los temores de Elon Musk, quien en un documental reciente afirmó que la superinteligencia artificial podría dar lugar a un dictador global inmortal que regiría al mundo entero.

Renunciando a la privacidad para mejorar la seguridad

Por esto y más, y pese a las posibles ventajas y beneficios en torno a la seguridad, lo cierto es que la inclusión de la inteligencia artificial a las redes públicas de webcams está comenzando a generar ansiedad sobre la privacidad y la libertad personal. Y no es solo el uso que le podrían dar algunos gobiernos extranjeros lo que preocupa a la gente.

inteligencia artificial
En Nueva Orleans, por ejemplo, el alcalde Mitch Landrieu ha propuesto un plan de vigilancia de $40 millones de dólares para la lucha contra el crimen, que incluye la conexión de las redes de cámaras municipales con transmisiones en vivo desde cámaras web privadas, operadas por empresas y personas particulares. La propuesta ya ha provocado varias protestas públicas, entre ellas las de trabajadores inmigrantes preocupados de que los funcionarios de inmigración usen las cámaras para detectar a trabajadores indocumentados y deportarlos.

Ya podrías estar siendo vigilado

Mientras tanto, al igual que los sujetos atrapados en un mundo de Black Mirror, es posible que sin darse cuenta, las personas ya se estén sometiendo involuntariamente a tal vigilancia con inteligencia artificial, a través de dispositivos que cada vez son más ubicuos.

La cámara Clips de Google, por ejemplo, que cuesta $249 dólares, usa una forma rudimentaria de IA para tomar fotografías automáticamente cuando ve algo que considera significativo. Amazon, cuyas bocinas con Alexa  ya han sido objeto de acusaciones paranoicas por supuesto espionaje, ha comprado la popular compañía de timbres Ring, que también funcionan con IA. La compañía GE Appliances planea presentar un centro equipado con cámaras de video para los electrodomésticos de cocina a finales de este año. Y en Europa, Electrolux estrenará un horno con una cámara web incorporada.

¿Podría esta tecnología salvar vidas?

Si bien estas tecnologías despiertan teorías de conspiración y la sensación de que todos nuestros movimientos están siendo monitoreados por alguien o por algo, aún existe la loable esperanza de que el uso de una inteligencia artificial sofisticada, como el programa de Cortica, podría mejorar la seguridad, la eficiencia, e incluso salvar vidas.

Uno no puede dejar de preguntarse, por ejemplo, qué hubiera pasado si tal tecnología hubiera estado disponible para ser usada en el automóvil de Uber en el que Nikolas Cruz se dirigió a la escuela Marjory Stoneman Douglas High School, para disparar indiscriminadamente y asesinar a 17 personas. El conductor de Uber no notó nada malo con Cruz, pero ¿podría una cámara equipada con AI haber detectado microexpresiones que posiblemente revelen sus intenciones, y alertar a la policía?

Podríamos mencionar decenas de posibles situaciones en las que la prevención podría haber evitado tragedias a mayor o menor escala. Y pese a las controversias, si los planes de Cortica y empresas similares siguen adelante, es posible que en el futuro descubriremos si la inteligencia artificial podrá también salvar vidas.

Recomendaciones del editor

Milenka Peña
Ex escritor de Digital Trends en Español
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
IA predice riesgo de Alzheimer con 99 por ciento de precisión
La imagen muestra a un neurólogo revisando escáneres cerebrales.

Un equipo de investigadores ha logrado desarrollar un método mediante inteligencia artificial (IA) que permite predecir el riesgo de sufrir Alzheimer con un 99 por ciento de precisión.

Según lo explicado por los científicos en la revista Diagnostics, al momento de evaluar los escáneres cerebrales de los adultos mayores, el algoritmo puede detectar algunos cambios sutiles que suceden antes del diagnóstico.

Leer más
IA predice cómo será el primer año de Messi en Francia
IA predice cómo será el primer año de Messi en Francia

Pese a que aún no se ha confirmado de manera oficial su nuevo club, el Paris Saint-Germain (PSG), muchos se ilusionan con ver a Lionel Messi en la Liga de Francia.

Existe mucha expectación por lo que el astro argentino pueda hacer en este nuevo desafío, y algunos hasta han recurrido a la tecnología para saber cómo será su estreno con la camiseta de los parisinos.

Leer más
La OMS pone bajo la lupa el uso de inteligencia artificial en la salud
IA Salud

Un informe de 165 páginas entregó este 28 de junio la Organización Mundial de la Salud (OMS) sobre el uso de la inteligencia artificial (IA) en el campo médico.

Entre lo positivo destaca el apoyo a los diagnósticos y a facilitar procesos, pero entre los aspectos negativos está el excesivo uso de datos personales de pacientes, lo que atentaría contra la privacidad.

Leer más