Skip to main content

Terapias de Realidad Virtual podrían ayudar a reducir la depresión

La realidad virtual (VR) tiene mucha presencia en los juegos y el cine, pero no hemos siquiera tocado la superficie de lo que es verdaderamente posible con la tecnología.

¿Cuál es el punto? Un nuevo estudio sugiere que la VR podría ayudar a los pacientes con depresión a tener mucha más estima de si mismos, fomentando así una imagen positiva personal y la reducción de los síntomas depresivos.

Recommended Videos

Relacionado: Los trajes de baño de Sports Ilustrated ya están en realidad virtual

Según el Science Daily, el estudio fue realizado por la Universidad de Londres y el Instituto Catalán de Investigación y Estudios Avanzados (ICREA). El mismo fue realizado durante el transcurso de varias semanas a 15 pacientes, de edades comprendidas entre 23 y 61 años.

La terapia comienza con el paciente utilizando un dispositivo de VR para ver su cuerpo virtual en el espejo. Al ver su cuerpo virtual moverse en la misma dirección que su propio cuerpo, ayuda al paciente a crear una ilusión de que ese cuerpo es suyo. Este proceso es llamado, “personificación” o ‘embodiment’ en inglés.

Mientras que los pacientes están personificándose, éstos están siendo entrenados para ser compasivos con un niño virtual en dificultades. Durante el proceso, el niño parecía haber dejado de llorar mientras el paciente estaba hablando, dando una opinión positiva al gesto compasivo. A los pocos minutos de la terapia, los pacientes se vieron personificados en ese niño virtual, después se veía un avatar adulto diciendo las mismas palabras de compasión y gestos para ellos.

Este escenario de ocho minutos se repitió tres veces durante un período de tres semanas. En cuanto a los resultados, nueve de los 15 pacientes mostraron una disminución de los síntomas depresivos, justo un mes después de haber completado la terapia. De esos nueve, cuatro experimentaron una caída significativa en la severidad de su depresión.

«La gente que lucha con la ansiedad y la depresión pueden ser excesivamente autocríticos cuando las cosas van mal en sus vidas”, dice Chris Brewin, profesor de la clínica UCL. «En este estudio, al consolar al niño y después escuchar sus propias palabras, los pacientes están indirectamente mostrando compasión así mismos. El objetivo era enseñar a los pacientes a ser más compasivos y menos autocríticos; hemos visto resultados prometedores. Un mes después del estudio, varios pacientes describieron cómo su experiencia había cambiado en cuanto a sus reacciones a situaciones de la vida real en el que anteriormente hubieran sido autocríticos”.

Los investigadores esperan conducir el estudio en una escala más grande para en un futuro poder determinar el beneficio clínico.

Topics
Nagidmy Márquez
Ex escritor de Digital Trends en Español
Nagidmy es comunicadora e internacionalista apasionada de las redes sociales, la historias del mundo y el acontecer diario…
Video: robot haciendo kung-fu nos advierte que la rebelión de las máquinas está cerca
Robot haciendo Kung Fu

La gente a menudo bromea sobre el llamado "levantamiento de los robots", pero un nuevo video del avanzado robot G1 de Unitree haciendo algunos movimientos de kung fu bien podría borrar la sonrisa de sus rostros.
Compartido el martes, el clip de 15 segundos muestra a un humano con un palo que se retira de un robot que luego le quita el palo de la mano. Digámoslo de nuevo: un humano con un palo que se retira de un robot.

Si eso no es suficiente para que su cara comience a temblar, las imágenes no se aceleran de ninguna manera, y el robot se mueve sin esfuerzo como una especie de Bruce Lee cubierto de plástico.
Hace solo una semana, Unitree Robotics publicó un video de G1 realizando una serie de movimientos de kung fu, pero este último clip muestra que en realidad se enfrenta a un humano. Y ganando.

Leer más
Steve Wozniak le da con todo a Elon Musk: «no sé que tiene en la cabeza»
Steve Wozniak podría haber llevado el coronavirus a EEUU

El cofundador de Apple, Steve Wozniak, nunca se ha guardado sus opiniones, y sin pelos en la lengua siempre ha dado su parecer sobre el mundo de la tecnología y sus personajes. Ahora los dardos fueron directamente contra Elon Musk por su nuevo rol en el gobierno de Donald Trump: en el Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés) para optimizar el gobierno federal y reducir su gasto administrativo.
"Definitivamente creo que deberíamos buscar ineficiencias en el gobierno, pero tenemos un departamento enorme que analiza paso a paso", dijo Wozniak a CNBC. "Solo despidos masivos... no es bueno para un negocio funcionar de esa manera", refiriéndose a los profundos recortes de empleos de DOGE en varias agencias gubernamentales. Realmente se trata de descubrir qué funciona y qué no, hacer los cambios". El ex compañero de Steve Jobs agregó que, es un proceso que debe hacerse "de manera más quirúrgica, con un bisturí en lugar de un mazo".

Y fue en ese momento, cuando Wozniak comenzó a disparar contra Elon Musk por intimidar a la gente:
"Elon Musk, no sé qué se le metió en la cabeza. A veces te haces tan rico en estas grandes empresas, y estás en la cima, se te sube a la cabeza, y eres la persona más increíble del mundo y la más brillante y vas a dictar lo que otros harán".
El cofundador de Apple agregó que Trump y Musk están actuando como el malo del colegio.
"El acoso es la mejor manera de pensarlo", dijo a CNBC. "Si estás en la escuela, el matón va a forzar su camino con el pequeño".
Por último, Wozniak manifestó que tiene la sospecha de que Elon Musk lo eliminó de X.com, principalmente por sus críticas a Tesla.
"Cada paso que daban en el que cambiaban cosas en el coche, empeoraba y empeoraba y empeoraba, y ahora es simplemente miserable para la interfaz de usuario", dijo. "Viniendo de Apple, la interfaz de usuario, la forma en que tratas con la tecnología, es lo más importante del mundo para mí. Y Tesla es el peor del mundo en eso".

Leer más
OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad
¿Es peligrosa la inteligencia artificial?

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.
El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar "un gran salto", diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.
La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue "discontinuo" y que no se lanzó inicialmente debido a "preocupaciones sobre aplicaciones maliciosas", pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.
"El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo", escribió Brundage en X. "El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución".
Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, "Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA".
Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los "productos brillantes" sobre la seguridad.

Leer más