Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Lego quiere enseñar a los niños a construir y codificar robots

Los constructores aficionados de robots que están ansiosos de poner sus manos en la caja de herramientas Lego Boost Creative Toolbox ahora pueden pre-ordenarla por $160 dólares.

El nuevo kit de codificación de Lego para niños comenzará a enviarse el primero de agosto e incluye más de 840 bloques Lego, un Lego Move Hub, un motor interactivo, un sensor de color/distancia, y una base de juego. Los usuarios podrán construir cinco creaciones multifuncionales utilizando este kit: un robot que se mueve y habla, un rover con cuatro herramientas incorporadas diferentes, un instrumento musical, un gato robótico y una estación de servicio.

Recommended Videos

Este producto de Lego tiene como uno de sus objetivos instruir a los niños de 7 a 12 años para realizar dos tareas: construir el dispositivo y luego programar sus instrucciones. Para empezar, los niños pueden descargar la aplicación gratuita de Lego a su tableta, y luego seleccionar lo que quieren construir. A partir de ahí, la aplicación proporcionará instrucciones sobre cómo crear el modelo que elijan. Y después de eso, es tiempo de codificar, lo que se realiza de una manera sencilla e intuitiva.

Para el proceso de codificación, la aplicación proporciona una interfaz fácil de usar que cuenta con una línea de «bloques» que residen en la parte inferior de la pantalla, y cada uno de ellos proporciona un comando simple. Estos bloques son arrastrados y soltados en la ventana principal para crear una cadena de comandos, diciéndole al modelo qué hacer. Estos comandos se envían desde la tableta al modelo a través de un componente Bluetooth de baja energía situado dentro del Move Hub, que está en el modelo recién construido.

Además de Bluetooth, el Move Hub se compone de una luz, un sensor interno de inclinación, un botón de activación y dos motores codificados. El motor interactivo es codificado mientras que el sensor de color/distancia detecta color, movimiento y distancia. Este sensor puede servir también para proporcionar iluminación.

Además de la codificación, la aplicación tableta gratuita incluye una serie de actividades personalizadas para cada modelo. Lego dice también que la base de juego incluida está diseñada para actividades específicas, y el kit incluye un cartel especial de Lego Boost para que los niños puedan pegarlo a la pared. Para adquirir Lego Boost Creative Toolbox, el nuevo kit de codificación de Lego para niños, puedes visitar el sitio de la compañía.

Topics
Milenka Peña
Ex escritor de Digital Trends en Español
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
Video: robot haciendo kung-fu nos advierte que la rebelión de las máquinas está cerca
Robot haciendo Kung Fu

La gente a menudo bromea sobre el llamado "levantamiento de los robots", pero un nuevo video del avanzado robot G1 de Unitree haciendo algunos movimientos de kung fu bien podría borrar la sonrisa de sus rostros.
Compartido el martes, el clip de 15 segundos muestra a un humano con un palo que se retira de un robot que luego le quita el palo de la mano. Digámoslo de nuevo: un humano con un palo que se retira de un robot.

Si eso no es suficiente para que su cara comience a temblar, las imágenes no se aceleran de ninguna manera, y el robot se mueve sin esfuerzo como una especie de Bruce Lee cubierto de plástico.
Hace solo una semana, Unitree Robotics publicó un video de G1 realizando una serie de movimientos de kung fu, pero este último clip muestra que en realidad se enfrenta a un humano. Y ganando.

Leer más
Steve Wozniak le da con todo a Elon Musk: «no sé que tiene en la cabeza»
Steve Wozniak podría haber llevado el coronavirus a EEUU

El cofundador de Apple, Steve Wozniak, nunca se ha guardado sus opiniones, y sin pelos en la lengua siempre ha dado su parecer sobre el mundo de la tecnología y sus personajes. Ahora los dardos fueron directamente contra Elon Musk por su nuevo rol en el gobierno de Donald Trump: en el Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés) para optimizar el gobierno federal y reducir su gasto administrativo.
"Definitivamente creo que deberíamos buscar ineficiencias en el gobierno, pero tenemos un departamento enorme que analiza paso a paso", dijo Wozniak a CNBC. "Solo despidos masivos... no es bueno para un negocio funcionar de esa manera", refiriéndose a los profundos recortes de empleos de DOGE en varias agencias gubernamentales. Realmente se trata de descubrir qué funciona y qué no, hacer los cambios". El ex compañero de Steve Jobs agregó que, es un proceso que debe hacerse "de manera más quirúrgica, con un bisturí en lugar de un mazo".

Y fue en ese momento, cuando Wozniak comenzó a disparar contra Elon Musk por intimidar a la gente:
"Elon Musk, no sé qué se le metió en la cabeza. A veces te haces tan rico en estas grandes empresas, y estás en la cima, se te sube a la cabeza, y eres la persona más increíble del mundo y la más brillante y vas a dictar lo que otros harán".
El cofundador de Apple agregó que Trump y Musk están actuando como el malo del colegio.
"El acoso es la mejor manera de pensarlo", dijo a CNBC. "Si estás en la escuela, el matón va a forzar su camino con el pequeño".
Por último, Wozniak manifestó que tiene la sospecha de que Elon Musk lo eliminó de X.com, principalmente por sus críticas a Tesla.
"Cada paso que daban en el que cambiaban cosas en el coche, empeoraba y empeoraba y empeoraba, y ahora es simplemente miserable para la interfaz de usuario", dijo. "Viniendo de Apple, la interfaz de usuario, la forma en que tratas con la tecnología, es lo más importante del mundo para mí. Y Tesla es el peor del mundo en eso".

Leer más
OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad
¿Es peligrosa la inteligencia artificial?

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.
El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar "un gran salto", diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.
La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue "discontinuo" y que no se lanzó inicialmente debido a "preocupaciones sobre aplicaciones maliciosas", pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.
"El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo", escribió Brundage en X. "El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución".
Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, "Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA".
Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los "productos brillantes" sobre la seguridad.

Leer más