Skip to main content

Los pilotos de guerra podrán controlar sus aviones con la mente

Los pilotos de combate tienen una estrecha relación con los aviones que comandan. Y ahora, aquella conexión podría ser aún más profunda gracias al trabajo de un grupo de médicos e investigadores australianos.

Durante los últimos cuatro años, un equipo de neurólogos e ingenieros de la Universidad de Melbourne, junto con los cirujanos en el Hospital Royal Melbourne, han estado desarrollando una avanzada interfaz cerebro/máquina de larga duración y fácil de implantar. Con el tiempo, la Agencia de Proyectos de Investigación Avanzados en Defensa (DARPA, por sus siglas en inglés) la cual financió este proyecto, espera alcanzar la tecnología de control mental de la cabina, lo cual permitiría a los pilotos controlar mentalmente sus aviones.

Recommended Videos

Relacionado: DARPA quiere vehículos más ligeros, más baratos y más inteligentes

La pieza central de este sistema de control mental es un pequeño electrodo biocompatible llamado stenode. El stenode es lo suficientemente flexible como para pasar a través de los vasos sanguíneos y funcionar una vez que llega a su destino. El electrodo puede medir la actividad eléctrica de la corteza motora, la parte del cerebro que, como su nombre lo indica, es la responsable de controlar los movimientos.

Toda la actividad eléctrica de la corteza motora se registra y se comparte con un sistema informático que “traduce” e interpreta estos movimientos. Estas interpretaciones se transforman en comandos digitales, los cuales se utilizan después para controlar alguna maquinaria externa. En los primeros ensayos, el equipo ha implantado con éxito el dispositivo en ovejas, recogiendo datos de actividad cerebral de hasta 190 días.

Más allá de estos animales, el investigador principal, el Dr. Tom Oxley, imagina un futuro en el que esta interfaz de control cerebral podría ser utilizada para interactuar con los teléfonos inteligentes, robots y demás objetos en los próximos 30 años. Reconociendo los beneficios de esta tecnología, DARPA pretende utilizar el sistema de control cerebral para aumentar la eficiencia de los pilotos de combate.

Relacionado: Esta piel inteligente podría ayudar a los robots a sentir

“El Ejército parece interesado en el posible control mental de los aviones de combate, en lugar de utilizar siempre las manos. El tiempo de desfase [entre el control manual y el control mental] es de apenas unos milisegundos”, dijo Oxley a IBTimes. DARPA también planea utilizar la stenode para rehabilitar a soldados heridos, permitiéndoles controlar mentalmente un exoesqueleto biónico.

Topics
Daniel Matus
Ex escritor de Digital Trends en Español
Daniel es un editor-anterior en DTES
Video: robot haciendo kung-fu nos advierte que la rebelión de las máquinas está cerca
Robot haciendo Kung Fu

La gente a menudo bromea sobre el llamado "levantamiento de los robots", pero un nuevo video del avanzado robot G1 de Unitree haciendo algunos movimientos de kung fu bien podría borrar la sonrisa de sus rostros.
Compartido el martes, el clip de 15 segundos muestra a un humano con un palo que se retira de un robot que luego le quita el palo de la mano. Digámoslo de nuevo: un humano con un palo que se retira de un robot.

Si eso no es suficiente para que su cara comience a temblar, las imágenes no se aceleran de ninguna manera, y el robot se mueve sin esfuerzo como una especie de Bruce Lee cubierto de plástico.
Hace solo una semana, Unitree Robotics publicó un video de G1 realizando una serie de movimientos de kung fu, pero este último clip muestra que en realidad se enfrenta a un humano. Y ganando.

Leer más
Steve Wozniak le da con todo a Elon Musk: «no sé que tiene en la cabeza»
Steve Wozniak podría haber llevado el coronavirus a EEUU

El cofundador de Apple, Steve Wozniak, nunca se ha guardado sus opiniones, y sin pelos en la lengua siempre ha dado su parecer sobre el mundo de la tecnología y sus personajes. Ahora los dardos fueron directamente contra Elon Musk por su nuevo rol en el gobierno de Donald Trump: en el Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés) para optimizar el gobierno federal y reducir su gasto administrativo.
"Definitivamente creo que deberíamos buscar ineficiencias en el gobierno, pero tenemos un departamento enorme que analiza paso a paso", dijo Wozniak a CNBC. "Solo despidos masivos... no es bueno para un negocio funcionar de esa manera", refiriéndose a los profundos recortes de empleos de DOGE en varias agencias gubernamentales. Realmente se trata de descubrir qué funciona y qué no, hacer los cambios". El ex compañero de Steve Jobs agregó que, es un proceso que debe hacerse "de manera más quirúrgica, con un bisturí en lugar de un mazo".

Y fue en ese momento, cuando Wozniak comenzó a disparar contra Elon Musk por intimidar a la gente:
"Elon Musk, no sé qué se le metió en la cabeza. A veces te haces tan rico en estas grandes empresas, y estás en la cima, se te sube a la cabeza, y eres la persona más increíble del mundo y la más brillante y vas a dictar lo que otros harán".
El cofundador de Apple agregó que Trump y Musk están actuando como el malo del colegio.
"El acoso es la mejor manera de pensarlo", dijo a CNBC. "Si estás en la escuela, el matón va a forzar su camino con el pequeño".
Por último, Wozniak manifestó que tiene la sospecha de que Elon Musk lo eliminó de X.com, principalmente por sus críticas a Tesla.
"Cada paso que daban en el que cambiaban cosas en el coche, empeoraba y empeoraba y empeoraba, y ahora es simplemente miserable para la interfaz de usuario", dijo. "Viniendo de Apple, la interfaz de usuario, la forma en que tratas con la tecnología, es lo más importante del mundo para mí. Y Tesla es el peor del mundo en eso".

Leer más
OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad
¿Es peligrosa la inteligencia artificial?

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.
El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar "un gran salto", diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.
La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue "discontinuo" y que no se lanzó inicialmente debido a "preocupaciones sobre aplicaciones maliciosas", pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.
"El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo", escribió Brundage en X. "El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución".
Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, "Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA".
Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los "productos brillantes" sobre la seguridad.

Leer más