Skip to main content

Sabía usted que la generación Z cae más que los boomers en estafas en línea

La caricatura establece que los boomers son todos aquellos nacidos después de la Segunda Guerra Mundial y que tienen un poco más de 60 años, aunque el meme reconoce acá a cualquiera que pudiera considerarse viejo, fuera de onda, o con poco dominio de la tecnología. Por su parte la generación Z es aquella nacida a finales de los 90 y la década de los 2000 y que son los hijos de internet y las redes sociales.

Y a diferencia de lo que podría pensarse, esta última generación cae más en estafas en línea que sus «abuelos».

Imagen utilizada con permiso del titular de los derechos de autor

Una encuesta de Deloitte muestra que los estadounidenses de la Generación Z tenían tres veces más probabilidades de quedar atrapados en una estafa en línea que los boomers (16 por ciento y 5 por ciento, respectivamente). En comparación con los boomers, la Generación Z también tenía el doble de probabilidades de tener una cuenta de redes sociales pirateada (17 por ciento y 8 por ciento). El catorce por ciento de los Gen Z-ers encuestados dijeron que habían tenido su información de ubicación mal utilizada, más que cualquier otra generación. El costo de caer en esas estafas también puede estar aumentando para las personas más jóvenes: el informe 2023 de Social Catfish sobre estafas en línea encontró que las víctimas de estafas en línea menores de 20 años perdieron un estimado de $ 8.2 millones en 2017. En 2022, perdieron $ 210 millones.

Recommended Videos

«Las personas que son nativas digitales en su mayor parte, son conscientes de estas cosas», dice Scott Debb, profesor asociado de psicología en la Universidad Estatal de Norfolk que ha estudiado los hábitos de ciberseguridad de los estadounidenses más jóvenes. En un estudio de 2020 publicado en el International Journal of Cybersecurity Intelligence and Cybercrime, Debb y un equipo de investigadores compararon los comportamientos de seguridad en línea autoinformados de los millennials y la Generación Z, las dos generaciones «nativas digitales». Si bien la Generación Z tenía una gran conciencia de la seguridad en línea, les fue peor que a los millennials en la implementación de muchas mejores prácticas de ciberseguridad en sus propias vidas.

Debido a que la Generación Z depende de la tecnología con más frecuencia, en más dispositivos y en más aspectos de sus vidas, podría haber más oportunidades para que se encuentren con un correo electrónico falso o una tienda poco confiable, dice Tanneasha Gordon, directora de Deloitte que dirige el negocio de datos y confianza digital de la compañía. Las personas más jóvenes se sienten más cómodas conociendo gente en línea, por lo que podrían ser blanco de una estafa romántica, por ejemplo.

«Compran mucho en línea», dijo Gordon, «y hay tantos sitios web fraudulentos y plataformas de comercio electrónico que literalmente se adaptan a ellos, que los sacarán de la plataforma de redes sociales en la que están a través de un anuncio fraudulento». Los correos electrónicos de phishing también son comunes, dijo. Y aunque una persona con más conocimientos digitales podría no caer en una estafa por correo electrónico copiada / pegada y plagada de errores tipográficos, hay muchas más sofisticadas y personalizadas por ahí. Finalmente, agregó Gordon, las personas más jóvenes a menudo se encontrarán con suplantación de identidad en las redes sociales y cuentas comprometidas.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad
¿Es peligrosa la inteligencia artificial?

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.
El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar "un gran salto", diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.
La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue "discontinuo" y que no se lanzó inicialmente debido a "preocupaciones sobre aplicaciones maliciosas", pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.
"El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo", escribió Brundage en X. "El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución".
Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, "Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA".
Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los "productos brillantes" sobre la seguridad.

Leer más
4 razones por las que la tecnología con cable es más segura que la inalámbrica
Cables de red conexión cableada

La tecnología inalámbrica, como el Wi-Fi y Bluetooth, nos ha facilitado la vida al eliminar cables y permitirnos conectarnos en cualquier parte. Sin embargo, cuando se trata de seguridad, las conexiones cableadas siguen teniendo una ventaja clave. Aunque la conectividad inalámbrica es conveniente, también implica riesgos que una conexión con cable puede evitar. Aquí te explicamos por qué.
1. Las conexiones cableadas no exponen señales al aire que puedan ser interceptadas

Las redes inalámbricas transmiten datos mediante ondas de radio que pueden extenderse más allá de las paredes de tu casa u oficina, lo que las hace vulnerables a ataques. Entre los más comunes están:

Leer más
Larry Page, cofundador de Google, entra de lleno al mundo de la IA
Larry Page y Sergei Brin

El cofundador de Google, Larry Page, quien en décadas pasadas se convirtió en uno de los hombres con más influencia del mundo junto a Sergey Brin, por la creación del popular buscador, que ha sido además la génesis de infinidad de productos y aplicaciones de uso cotidiano, ahora está buscándole un nuevo sentido a su vida laboral: está entrando en el bosque de la IA.
Pero la idea de Page no es crear un nuevo asistente de IA digital, sino que está construyendo una nueva empresa llamada Dynatomics que se centra en la aplicación de la IA a la fabricación de productos, según The Information.
Según los informes, Page está trabajando con un pequeño grupo de ingenieros en IA que pueden crear diseños "altamente optimizados" para objetos y luego hacer que una fábrica los construya, según The Information. Chris Anderson, anteriormente director de tecnología de la startup de aviones eléctricos Kittyhawk, respaldada por Page, está dirigiendo el esfuerzo sigiloso, confirma The Information.
No sería el primero en buscar este tipo de aplicación práctica a la IA, ya lo hacen empresas como Orbital Materials, que está creando una plataforma de IA que se puede utilizar para descubrir materiales que van desde baterías hasta celdas que capturan dióxido de carbono. PhysicsX proporciona herramientas para ejecutar simulaciones para ingenieros que trabajan en áreas de proyectos como la automoción, la industria aeroespacial y la ciencia de los materiales. Por otra parte, Instrumental está aprovechando la IA impulsada por la visión para detectar anomalías en las fábricas.

Leer más