Skip to main content

Hackers logran acceso remoto a máquinas de votación en menos de 2 horas en DefCon


La historia se repite. Solo un año después de una situación similar, piratas informáticos tardaron menos de dos horas en acceder a las máquinas de votación de los Estados Unidos en la conferencia anual de seguridad informática DefCon, un evento anual que atrae a hackers de todo el mundo a Las Vegas para mostrar de lo que son capaces.

La idea detrás de este esfuerzo es «crear conciencia y descubrir por nosotros mismos cuáles podrían ser los principales problemas», señaló el fundador de la conferencia, Jeff Moss, de acuerdo con USA Today.

Recommended Videos

Después de casi una hora y media, Carsten Schürmann, un catedrático asociado de IT-University of Copenhagen, ingresó con éxito en una máquina de votación en la convención Defcon de Las Vegas el viernes por la noche, informa CNet. El hacker penetró en la máquina WinVote 2000 de la compañía Advanced Voting Solutions a través de su sistema Wi-Fi, y utilizando un exploit de Windows XP que existe desde el 2003, pudo acceder e ingresar de forma remota.

Algunos participantes tuvieron acceso físicamente a las máquinas para encontrar y documentar las vulnerabilidades. Pero más preocupante aún, otros – como en el caso de Schürmann- obtuvieron acceso remoto a través de Wi-Fi, y algunos incluso pudieron cargar malware remotamente.

Durante el primer evento realizado el año pasado,los organizadores de DefCon agregaron unas 30 máquinas de votación -incluidas las creadas por Diebold, Sequoia y WinVote- para formar la primera “Voter Hacking Village”, y las entregaron a los profesionales para que usen sus habilidades y puedan revelar vulnerabilidades.

Los ataques de acceso remotos son claramente los más preocupantes, debido a su naturaleza, y los hackers que participaron en la convención esperan que su descubrimiento genere cambios en la tecnología de las máquinas de votación.

Anne-Marie Hwang, quien trabaja en Synack, dijo a CNet que cambiar el resultado de los votos puede ser tan simple como actualizar un documento de Microsoft Excel. «Hackear el sistema ahora es algo bueno, porque es capaz de informar a los políticos y a las personas en el Congreso sobre lo que deberían hacer con las máquinas de votación», dijo Hwang. «Si nadie pudo piratearlas, podríamos seguir usando cosas como esta». SIn embargo, Schürmann demostró que es posible tener acceso al sistema, en menos tiempo de lo que dura ver una buena película.

«Sin lugar a dudas, nuestros sistemas de votación son débiles y susceptibles», dijo Jake Braun, director ejecutivo de la consultora de seguridad Cambridge Global Advisors,. «Gracias a las contribuciones de la comunidad de hackers de hoy, hemos descubierto aún más sobre cómo exactamente podemos protegernos».

Milenka Peña
Ex escritor de Digital Trends en Español
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad
¿Es peligrosa la inteligencia artificial?

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.
El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar "un gran salto", diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.
La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue "discontinuo" y que no se lanzó inicialmente debido a "preocupaciones sobre aplicaciones maliciosas", pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.
"El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo", escribió Brundage en X. "El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución".
Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, "Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA".
Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los "productos brillantes" sobre la seguridad.

Leer más
4 razones por las que la tecnología con cable es más segura que la inalámbrica
Cables de red conexión cableada

La tecnología inalámbrica, como el Wi-Fi y Bluetooth, nos ha facilitado la vida al eliminar cables y permitirnos conectarnos en cualquier parte. Sin embargo, cuando se trata de seguridad, las conexiones cableadas siguen teniendo una ventaja clave. Aunque la conectividad inalámbrica es conveniente, también implica riesgos que una conexión con cable puede evitar. Aquí te explicamos por qué.
1. Las conexiones cableadas no exponen señales al aire que puedan ser interceptadas

Las redes inalámbricas transmiten datos mediante ondas de radio que pueden extenderse más allá de las paredes de tu casa u oficina, lo que las hace vulnerables a ataques. Entre los más comunes están:

Leer más
Larry Page, cofundador de Google, entra de lleno al mundo de la IA
Larry Page y Sergei Brin

El cofundador de Google, Larry Page, quien en décadas pasadas se convirtió en uno de los hombres con más influencia del mundo junto a Sergey Brin, por la creación del popular buscador, que ha sido además la génesis de infinidad de productos y aplicaciones de uso cotidiano, ahora está buscándole un nuevo sentido a su vida laboral: está entrando en el bosque de la IA.
Pero la idea de Page no es crear un nuevo asistente de IA digital, sino que está construyendo una nueva empresa llamada Dynatomics que se centra en la aplicación de la IA a la fabricación de productos, según The Information.
Según los informes, Page está trabajando con un pequeño grupo de ingenieros en IA que pueden crear diseños "altamente optimizados" para objetos y luego hacer que una fábrica los construya, según The Information. Chris Anderson, anteriormente director de tecnología de la startup de aviones eléctricos Kittyhawk, respaldada por Page, está dirigiendo el esfuerzo sigiloso, confirma The Information.
No sería el primero en buscar este tipo de aplicación práctica a la IA, ya lo hacen empresas como Orbital Materials, que está creando una plataforma de IA que se puede utilizar para descubrir materiales que van desde baterías hasta celdas que capturan dióxido de carbono. PhysicsX proporciona herramientas para ejecutar simulaciones para ingenieros que trabajan en áreas de proyectos como la automoción, la industria aeroespacial y la ciencia de los materiales. Por otra parte, Instrumental está aprovechando la IA impulsada por la visión para detectar anomalías en las fábricas.

Leer más