Skip to main content

La piel artificial hecha de materiales caseros que puede detectar tacto, presión y mucho más

Una piel artificial con la función sensorial que se asemeja a la piel humana ha sido creada por un equipo de investigadores de la Universidad Rey Abdullah de Ciencia y Tecnología (KAUST). Lo más interesante de todo es que la piel artificial es creada a partir de artículos para el hogar.

Esta plataforma de sensores, por cierto de bajo, puede detectar tacto, la presión, la temperatura, la acidez y la humedad. La piel de papel, como es llamada por los investigadores, se encuentra en las primeras etapas de desarrollo.

Recommended Videos

Relacionado: La bioimpresora 3D que fabrica tejidos humanos

109489_web
Imagen utilizada con permiso del titular de los derechos de autor

El innovador material está hecho de artículos de la casa u oficina comunes, como papel de aluminio, papel de notas, esponjas y cinta adhesiva.

Los materiales se montan en una plataforma lisa, y una vez ensamblados, la piel de papel puede responder a estímulos externos tales como la humedad, cambios de temperatura, e incluso la presencia de un dedo.

El sistema se basa en la conducción eléctrica, detectando los estímulos externos producidos por la misma conductividad. Para detectar estos cambios, la piel está conectada a un dispositivo capaz de medir el voltaje, la resistencia y capacidad. Este sistema podría detectar estímulos múltiples simultáneamente en tiempo real.

El equipo utilizó los elementos individuales y combinados para imitar la función de la piel. Por ejemplo, la cinta adhesiva se utilizó para detectar la humedad, mientras que la esponja se utiliza para monitorear los cambios en la presión. Múltiples elementos tales como lápiz de plomo en papel y tinta de plata conductora sobre papel de aluminio se podrían usar para medir los estímulos más complejos tales como los niveles de acidez o cambios de temperatura.

Los investigadores KAUST esperan mejorar la piel de papel para que pueda ser utilizado como un dispositivo médico, el cual puede monitorear los signos vitales como la “frecuencia cardíaca, la presión arterial, los patrones de respiración y movimiento”, dijo Muhammad Mustafa Hussain representante del Laboratorio de Nanotecnología Integrado KAUST.

Antes de que el sistema se puede utilizar en un entorno clínico, el equipo tiene que llevar a cabo pruebas exhaustivas para determinar la fiabilidad a largo plazo del sistema. También tiene que medir la capacidad del papel para doblar y adherirse a la piel de un paciente. Además, los investigadores tendrán que desarrollar un sistema inalámbrico por lo que el papel se puede utilizar de modo autónomo, sin necesidad de una conexión directa a una máquina.

Según los investigadores de KAUST, la piel artificial es muy asequible, y funciona tan bien como versiones más costosas que también están es su fase de desarrollo. «Este trabajo tiene el potencial de revolucionar la industria de la electrónica y abre la puerta a la comercialización de dispositivos de detección de alto rendimiento asequible», dijo Hussain.

Topics
Nagidmy Márquez
Ex escritor de Digital Trends en Español
Nagidmy es comunicadora e internacionalista apasionada de las redes sociales, la historias del mundo y el acontecer diario…
Video: robot haciendo kung-fu nos advierte que la rebelión de las máquinas está cerca
Robot haciendo Kung Fu

La gente a menudo bromea sobre el llamado "levantamiento de los robots", pero un nuevo video del avanzado robot G1 de Unitree haciendo algunos movimientos de kung fu bien podría borrar la sonrisa de sus rostros.
Compartido el martes, el clip de 15 segundos muestra a un humano con un palo que se retira de un robot que luego le quita el palo de la mano. Digámoslo de nuevo: un humano con un palo que se retira de un robot.

Si eso no es suficiente para que su cara comience a temblar, las imágenes no se aceleran de ninguna manera, y el robot se mueve sin esfuerzo como una especie de Bruce Lee cubierto de plástico.
Hace solo una semana, Unitree Robotics publicó un video de G1 realizando una serie de movimientos de kung fu, pero este último clip muestra que en realidad se enfrenta a un humano. Y ganando.

Leer más
Steve Wozniak le da con todo a Elon Musk: «no sé que tiene en la cabeza»
Steve Wozniak podría haber llevado el coronavirus a EEUU

El cofundador de Apple, Steve Wozniak, nunca se ha guardado sus opiniones, y sin pelos en la lengua siempre ha dado su parecer sobre el mundo de la tecnología y sus personajes. Ahora los dardos fueron directamente contra Elon Musk por su nuevo rol en el gobierno de Donald Trump: en el Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés) para optimizar el gobierno federal y reducir su gasto administrativo.
"Definitivamente creo que deberíamos buscar ineficiencias en el gobierno, pero tenemos un departamento enorme que analiza paso a paso", dijo Wozniak a CNBC. "Solo despidos masivos... no es bueno para un negocio funcionar de esa manera", refiriéndose a los profundos recortes de empleos de DOGE en varias agencias gubernamentales. Realmente se trata de descubrir qué funciona y qué no, hacer los cambios". El ex compañero de Steve Jobs agregó que, es un proceso que debe hacerse "de manera más quirúrgica, con un bisturí en lugar de un mazo".

Y fue en ese momento, cuando Wozniak comenzó a disparar contra Elon Musk por intimidar a la gente:
"Elon Musk, no sé qué se le metió en la cabeza. A veces te haces tan rico en estas grandes empresas, y estás en la cima, se te sube a la cabeza, y eres la persona más increíble del mundo y la más brillante y vas a dictar lo que otros harán".
El cofundador de Apple agregó que Trump y Musk están actuando como el malo del colegio.
"El acoso es la mejor manera de pensarlo", dijo a CNBC. "Si estás en la escuela, el matón va a forzar su camino con el pequeño".
Por último, Wozniak manifestó que tiene la sospecha de que Elon Musk lo eliminó de X.com, principalmente por sus críticas a Tesla.
"Cada paso que daban en el que cambiaban cosas en el coche, empeoraba y empeoraba y empeoraba, y ahora es simplemente miserable para la interfaz de usuario", dijo. "Viniendo de Apple, la interfaz de usuario, la forma en que tratas con la tecnología, es lo más importante del mundo para mí. Y Tesla es el peor del mundo en eso".

Leer más
OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad
¿Es peligrosa la inteligencia artificial?

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.
El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar "un gran salto", diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.
La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue "discontinuo" y que no se lanzó inicialmente debido a "preocupaciones sobre aplicaciones maliciosas", pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.
"El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo", escribió Brundage en X. "El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución".
Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, "Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA".
Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los "productos brillantes" sobre la seguridad.

Leer más