Skip to main content

Tom Hanks quiere actuar eternamente gracias a la IA

Tom Hanks debe ser de los actores más conocidos y legendarios de Hollywood, y el interprete de El Náufrago quiere seguir hablando con Wilson cuando esté muerto, ya que admitió en una entrevista que le gustaría perpetuar sus actuaciones en el cine gracias a la IA.

El actor conversó en el podcast del comediante Adam Buxton, donde el aclamado actor discutió sobre la posibilidad de continuar su carrera una vez que fallezca a través de los avances de inteligencia artificial. De hecho, contó que ya hay personas en la industria discutiendo los aspectos legales de “mi rostro y mi voz y todo los demás con respecto a nuestra propiedad intelectual”.

Recommended Videos

Según Hanks, todo comenzó cuando “prestó” su rostro para la película de Zemeckis, Polar Express: «entonces lo vimos venir. Vimos que iba a haber esta capacidad […] de tomar ceros y unos dentro de una computadora y convertirlos en una cara y un personaje. Ahora, eso solo se ha multiplicado por mil millones desde entonces y lo vemos en todos lados. Es una posibilidad de buena fe en este momento, si quisiera, podría reunirme y lanzar una serie de siete películas que me protagonizarían en las que tendría 32 años desde ahora hasta la llegada del reino».

Imagen utilizada con permiso del titular de los derechos de autor

Tom Hanks además recordó cómo en el cine se han usado ya técnicas para rejuvenecer a actores como Robert de Niro o Harrison Ford, o colocar a Carrie Fisher en Star Wars después de muerta.

“Cualquiera ahora puede recrearse a sí mismo a cualquier edad que tenga mediante inteligencia artificial o tecnología deepfake. Es más, podría ser atropellado por un autobús mañana y eso es todo, pero mis actuaciones pueden seguir y seguir y seguir. Y no habrá nada que les diga que no somos yo y solo yo”, zanjó en el podcast.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Google ayuda a detectar el cáncer de mama con ayuda de la IA
google ia deteccion temprana cancer de mama angiola harry sjcalew 1lm unsplash

Cada 19 de octubre se conmemora el Día Internacional de lucha contra el Cáncer de Mama, con el objetivo de concientizar acerca de esta enfermedad. En este contexto, Google difundió cómo trabaja en proyectos que combinan el poder de la inteligencia artificial (IA) con el conocimiento de los profesionales de la salud para crear herramientas de diagnóstico precisas y accesibles. Las investigaciones llevadas a cabo en varios diagnósticos detectaron una reducción del 9.4% de los falsos negativos y del 5.7% de los falsos positivos.
De acuerdo con la Organización Mundial de la Salud (OMS), el cáncer de mama es uno de los más comunes, siendo el 99% de los casos en mujeres. Asimismo, la Organización Panamericana de la Salud (OPS) afirma que el tratamiento puede ser altamente efectivo cuando la enfermedad se detecta a tiempo.
En este escenario, Adriana Noreña, vicepresidenta de Google para Hispanoamérica, reflexionó: “Como subrayé en mi participación en el Women 20 de Río de Janeiro, la inteligencia artificial tiene la capacidad de procesar y analizar enormes cantidades de datos en poco tiempo, identificar patrones complejos y aprender de forma contínua a través de sus algoritmos para mejorar su precisión, lo cual la convierte en una gran aliada para los profesionales de la salud”. Y agregó: “es crucial que haya cada vez más mujeres involucradas en el desarrollo de esta tecnología. Al incorporar nuestra perspectiva desde el momento cero, podemos garantizar que la IA no solo sea técnicamente avanzada, sino también nos permitirá crear soluciones íntimamente relacionadas con nuestro género, así como más equitativas y efectivas”.
En línea con estos esfuerzos por mejorar la detección temprana, entre 2016 y 2018, Google comenzó a implementar el uso del aprendizaje profundo -deep learning-, una de las áreas donde la IA emplea redes neuronales artificiales para aprender de grandes conjuntos de datos para realizar tareas complejas, con el fin de asistir a los médicos en la detección de la metástasis. Esta herramienta de análisis de nódulos linfáticos (Lymph Node Assistant -LYNA, por sus siglas en inglés-), es entrenada por medio de imágenes médicas, como radiografías, tomografías o imágenes patológicas, y clasificadas previamente por expertos, para que la IA pueda identificar los macro y micro patrones de la enfermedad. Así, LYNA tiene la capacidad de detectar la localización de la metástasis que, en muchos casos, es casi imperceptible al ojo humano, permitiendo que los médicos puedan acelerar el proceso de diagnóstico y, en consecuencia, adelantar el inicio del tratamiento. 
En 2021, Google Health realizó una investigación clínica junto con Northwestern Medicine para explorar cómo la IA podría acelerar el diagnóstico del cáncer de mama, optimizando el proceso desde la mamografía inicial hasta el diagnóstico final. Comenzaron la investigación recopilando imágenes mamográficas de alta calidad provenientes de diversos pacientes, las cuales fueron clasificadas por expertos en salud para entrenar el modelo de IA ante la detección de cáncer, la identificación de características tumorales, entre otros aspectos.
Posteriormente, el modelo se probó en un entorno clínico real, donde las personas que se sometían a mamografías podían optar por que sus resultados fueran analizados por la IA junto con la evaluación de los radiólogos. Estos arrojaron datos alentadores: se redujeron los falsos negativos en un 9.4% y los falsos positivos en un 5.7%, en comparación con la práctica clínica estándar. Además, la IA demostró su capacidad de analizar una mamografía en menos de dos minutos, lo que permite obtener resultados más rápidos para las pacientes, acelerar tanto el diagnóstico como el tratamiento, al mismo tiempo que reduce los costos asociados a la atención y los tratamientos tardíos.

Premios Nobel: Hallazgos en beneficio de la salud
La semana pasada, Geoffrey Hinton, ex investigador de Google, fue galardonado junto a John Hopfield con el Premio Nobel de Física 2024 por sus descubrimientos en el campo del aprendizaje automático con redes neuronales artificiales (ANN por sus siglas en inglés), que sentaron las bases para el reconocimiento a través de la IA de patrones en imágenes, lenguajes y en información clínica que hoy se utiliza en el campo de la salud y en otras disciplinas.
Como se describe en este documento emitido por el comité del premio Nobel, este descubrimiento fue clave en el desarrollo de la herramienta para la predicción de las estructuras de cualquier proteína en tres dimensiones denominado AlphaFold, motivo por el cual dos científicos de Google DeepMind, Demis Hassabis y John Jumper, obtuvieron también este año el Premio Nobel de Química. AlphaFold fue abierta por Google a la comunidad científica de forma gratuita y ya fue utilizado por más de dos millones de investigadores de más de 190 países.

Leer más
Adobe quiere reinar en la IA de video y agrega capacidades a Firefly
adobe firefly nuevas capacidades ia video

El mundo de la IA generativa y sobre todo lo que tiene que ver con la creación de video a partir de instrucciones, está agarrando nuevos vuelos, ya que este lunes 14 de octubre Adobe presentó actualizaciones y nuevas capacidades de su modelo Firefly, que ya está integrado con Premiere Pro para.

El modelo de video Firefly, como se llama la tecnología, competirá con Sora de OpenAI, que se presentó a principios de este año, mientras que el propietario de TikTok, ByteDance, y Meta Platforms también han anunciado sus herramientas de video en los últimos meses.
Las nuevas características
La primera herramienta, Generative Extend, se lanza en versión beta para Premiere Pro. Se puede utilizar para ampliar el final o el principio de un metraje que es un poco demasiado corto, o hacer ajustes a mitad de la toma, como para corregir cambios en las líneas de los ojos o movimientos inesperados.
Los clips solo se pueden extender dos segundos, por lo que la extensión generativa solo es realmente adecuada para pequeños ajustes, pero eso podría reemplazar la necesidad de volver a tomar el metraje para corregir pequeños problemas. Los clips extendidos se pueden generar a 720p o 1080p a 24 FPS. También se puede usar en audio para ayudar a suavizar las ediciones, aunque con limitaciones. Extenderá los efectos de sonido y el "tono de la habitación" ambiental hasta diez segundos, por ejemplo, pero no los diálogos hablados o la música.

Leer más
Wikipedia está en pie de guerra contra la IA
Wikipedia en español

Wikipedia quiere erradicar la IA de su servicio, o al menos limpiar todo el contenido generado con IA que pueda ensuciar las entradas de la enciclopedia digital colaborativa.

Como informa 404 Media, un equipo de editores de Wikipedia se ha reunido para crear "WikiProject AI Cleanup", que se describe a sí mismo como "una colaboración para combatir el creciente problema del contenido generado por IA sin fuentes y mal escrito en Wikipedia".

Leer más