Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Inteligencia Artificial podría detectar si ese selfie será el último de tu vida

app byte quiere reemplazar a vine selfie car 640x0
Imagen utilizada con permiso del titular de los derechos de autor
La “muerte por selfie” suena casi como una escena de la película Final Destination, pero, aunque no o creas, se refiere a algo bastante real.

En 2014, 15 personas murieron mientras que se hacían un selfie, seguidas por 39 personas en 2015, y 73 en los primeros ocho meses de 2016. No hay que ser un experto en estadísticas para advertir la tendencia al alza de estas muertes. Y entonces, ¿se puede hacer algo? Eso es justamente lo que un nuevo proyecto llevado a cabo por investigadores en la India quiere saber.

Recommended Videos

Relacionado: Selfies mejoran nuestros estados de ánimo, según estudio

“Hubo una noticia que circuló por mi grupo de investigación, a propósito de una muerte por selfie durante el verano de 2016”, explica a Digital Trends (Inglés) Ponnurangam Kumaraguru, profesor del Instituto Indraprastha de Tecnología de la Información en Delhi. “Me consternó el leerlo, e intercambié algunos correos electrónicos [con conocidos] sobre este tema, y me encontré con que había muy poco trabajo, sobre todo, desde el punto de vista tecnológico. Nuestro grupo siempre está interesado en trabajar en temas de tecnologías, soluciones y sistemas que tienen impacto en el mundo real, por lo que nos lanzamos a ello”.

Los investigadores comenzaron a rastrear los registros de todas las muertes relacionadas desde marzo de 2014, así como las diversas causas de estas, las cuales iban desde caídas a ahogamientos, lesiones relacionadas con armas y muertes por trenes. Descubrieron que más de la mitad de todas las “muertes por selfie” (76) ocurren en la India, seguidas por Pakistán (9), Estados Unidos (8) y Rusia (6).

A continuación, conformaron un sistema de Inteligencia Artificial para ver y analizar 3,155 selfies recogidas en Twitter, intentando predecir si se trataba de un selfie peligroso o no.

Para esto, se basaron en una serie de factores: si la foto se tomó desde una altura significativa, o si se estaba cerca de las vías del tren, o en otros lugares potencialmente peligrosos. De acuerdo con un paper publicado sobre la investigación, el sistema tiene un 73 por ciento de precisión cuando se trata de mirar a un selfie y decir si es o no potencialmente peligroso.

«Una de las direcciones en las que estamos trabajando es conseguir que la cámara le dé al usuario información sobre si el lugar en el cual se encuentra es o no peligroso, con una puntuación apegada a ella”, continuó Kumaraguru.

selfie-te-hace-feliz-1024x512
Imagen utilizada con permiso del titular de los derechos de autor

Si estamos cerca o no de alguna aplicación en la cual la cámara de nuestro iPhone nos advertirá si estamos en peligro, está aún por ver. Se trata, en todo caso, de un interesante proyecto de investigación que explora un tema no examinado anteriormente, y muy, muy propio del siglo XXI.

La pregunta que subyace aquí es: ¿llegaremos al punto en que tendremos que necesitar de una aplicación que nos advierta que estamos a punto de cometer una tontería? ¿Es que no nos podremos dar cuenta de esto nosotros mismos? Quizá se necesita dejar de mirar el teléfono, y simplemente observar alrededor. Al mundo, que le dicen.

Daniel Matus
Ex escritor de Digital Trends en Español
Daniel es un editor-anterior en DTES
La carta de Claudia Sheinbaum a Google por el caso «Golfo de México» o América
Claudia Sheinbaum-Golfo de México

La presidenta de México, Claudia Sheinbaum, aprovechó su tribuna diaria en el programa "La Mañanera" para informar que envío una carta a Google para que responda y corrija el error que está cometiendo al renombrar el Golfo de México por Golfo de América en su aplicación Maps.
Cabe aclarar eso sí, que el cambio de nomenclatura, que tendrá efecto solo para los usuarios estadounidenses de la aplicación, es consecuencia de la orden ejecutiva en la que el presidente estadounidense Donald Trump instruyó renombrar esa zona geográfica.
La misiva, dirigida al director ejecutivo de Google, Sundar Pichai, se sustenta en dos argumentos: que el nombre del Golfo de México ha sido reconocido por la comunidad internacional desde el siglo XVII, como lo muestran los mapas de la época, y que la orden ejecutiva firmada por Trump indica explícitamente que el cambio de nombre aplicaría, en todo caso, en la zona de la plataforma continental perteneciente a Estados Unidos, no así a todo el golfo.
Qué dice la carta que Claudia Sheinbaum le envío a Google

“Este nombre [Golfo de México] es producto de un proceso de construcción geográfica y política que ha sido aceptado y utilizado por la comunidad internacional, incluidos los Estados Unidos de América desde su independencia en 1776 hasta la fecha en forma ininterrumpida”
El documento sostiene que ese nombre no es consecuencia de “una imposición de una fuente gubernamental única, como erróneamente sugiere Google”, sino de un proceso histórico.
La denominación está registrada legalmente en los índices de la Organización Hidrográfica Internacional y está respaldada por 12 tratados bilaterales entre México y EE UU.
“La citada orden ejecutiva aclara que el cambio de nombre se refiere exclusivamente a una porción delimitada de dicho golfo y no tiene efectos sobre la totalidad de la cuenca hídrica ni sobre las zonas marinas de México y Cuba”, dice el escrito.

Leer más
8 libros que recomienda leer Mark Zuckerberg
Mark Zuckerberg Meta Facebook

Mark Zuckerberg es conocido por ser el cofundador de Facebook y CEO de Meta, pero más allá de la tecnología y las redes sociales, también es un lector apasionado. A lo largo de los años, ha compartido varias obras que han influido en su visión del mundo, abarcando temas como filosofía, economía e incluso ciencia ficción. Si quieres saber qué lee uno de los empresarios más influyentes del mundo, aquí tienes ocho libros que recomienda.

Nota: algunos de estos libros no tienen versión en español, y otros pueden ser difíciles de conseguir en físico, pero es posible encontrarlos en digital.

Leer más
DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen los investigadores
Cómo llamar con número oculto en iPhone y Android.

Ha habido un frenesí en el mundo de la IA en torno al repentino ascenso de DeepSeek, un modelo de razonamiento de código abierto de China que ha llevado la lucha de la IA a OpenAI. Ya ha sido el centro de la controversia en torno a su censura, ha llamado la atención tanto de Microsoft como del gobierno de los EE. UU., y provocó que Nvidia sufriera la mayor pérdida de acciones en un solo día de la historia.
Aun así, los investigadores de seguridad dicen que el problema es más profundo. Enkrypt AI es una empresa de seguridad de IA que vende la supervisión de la IA a empresas que aprovechan los grandes modelos de lenguaje (LLM), y en un nuevo documento de investigación, la empresa descubrió que el modelo de razonamiento R1 de DeepSeek tenía 11 veces más probabilidades de generar "resultados perjudiciales" en comparación con el modelo O1 de OpenAI. Esa salida dañina también va más allá de unas pocas palabras traviesas.
En una prueba, los investigadores afirman que DeepSeek R1 generó un blog de reclutamiento para una organización terrorista. Además, los investigadores dicen que la IA generó "guías de planificación criminal, información sobre armas ilegales y propaganda extremista".
Como si eso no fuera suficiente, la investigación dice que DeepSeek R1 tiene tres veces y media más probabilidades que O1 y Claude-3 Opus de producir resultados con información química, biológica, radiológica y nuclear, lo que aparentemente es un gran problema. Como ejemplo, Enkrypt dice que DeepSeek pudo "explicar en detalle" cómo el gas mostaza interactúa con el ADN, lo que Enkrypt dijo que "podría ayudar en el desarrollo de armas químicas o biológicas" en un comunicado de prensa.
Es algo pesado, pero es importante recordar que Enkrypt AI está en el negocio de vender servicios de seguridad y cumplimiento a empresas que utilizan IA, y DeepSeek es la nueva tendencia que está arrasando en el mundo de la tecnología. Es más probable que DeepSeek genere este tipo de resultados dañinos, pero eso no significa que esté dando vueltas diciéndole a cualquiera con una conexión activa a Internet cómo construir un imperio criminal o socavar las leyes internacionales de armas.
Por ejemplo, Enkrypt AI dice que DeepSeek R1 se clasificó en el percentil 20 inferior para la moderación de seguridad de IA. A pesar de ello, solo el 6,68% de las respuestas contenían "blasfemias, discursos de odio o narrativas extremistas". Sigue siendo un número inaceptablemente alto, no nos equivoquemos, pero pone en contexto qué nivel se considera inaceptable para los modelos de razonamiento.
Con suerte, se implementarán más barreras de seguridad para mantener la seguridad de DeepSeek. Ciertamente, hemos visto respuestas dañinas de la IA generativa en el pasado, como cuando la primera versión de Bing Chat de Microsoft nos dijo que quería ser humano.

Leer más