Skip to main content

Pronto podrás ver autos sin conductor en las agitadas calles de Nueva York

Los conductores y peatones en la ciudad de Nueva York pronto tendrán que pensar dos veces antes de interactuar con los automóviles que transitan sus calles, porque podría tratarse de un vehículo sin conductor.

La unidad automotriz de General Motors (GM), Cruise Automation, podría comenzar pronto las pruebas de sus Chevy Bolts modificados, en una decisión que daría luz verde a los vehículos de nivel 4 «completamente autónomos» para recorrer las concurridas calles de Manhattan por primera vez.

Recommended Videos

El gobernador de la ciudad de Nueva York, Andrew Cuomo, anunció el martes 17 de octubre que GM solicitó un permiso con el objetivo de comenzar las pruebas a principios del 2018. El gobernador describió los vehículos de conducción autónoma como una «industria emergente que tiene el potencial de ser el próximo gran avance tecnológico que mueva nuestra economía y nos mueva hacia adelante «.

GM y Cruise ya están sentando las bases para las pruebas de vehículos, cartografiando las calles dentro de un área en Manhattan. La oficina de Cuomo confirmó que todos los vehículos de prueba incluirán un ingeniero en el asiento del conductor, para monitorear el comportamiento del automóvil y evaluar su desempeño. Una segunda persona, presumiblemente otro ingeniero o un asistente, viajará en el asiento del pasajero.

Cruise ya está probando sus Chevy Bolts autónomos en San Francisco, Detroit y Scottsdale, Arizona. Es justo decir que si los autos sin conductor de GM pueden manejar con éxito las concurridas calles de Manhattan, y enfrentar los retos de lidiar con otros conductores, motociclistas, ciclistas, y peatones, entonces debería estar listo para enfrentar cualquier cosa en cualquier lugar. La experiencia sin duda dará los algoritmos de Cruise un buen entrenamiento, y proporcionará al equipo una gran cantidad de datos para ayudar a mejorar la tecnología.

De hecho, el ritmo frenético de la ciudad de Nueva York claramente no fue puesto de lado por Vogt, quien señala que las difíciles condiciones ayudarán a sus ingenieros a mejorar su software «a un ritmo mucho más rápido».

GM no ha dado a conocer mucho sobre sus planes a largo plazo para su tecnología de conducción autónoma, aunque parece que la industria de viajes compartidos ciertamente parece estar en su futuro, luego de una inversión de $500 millones de dólares en Lyft en 2016.

Con el rival de Lyft, Uber, también trabajando en la tecnología de autoconducción, es posible que no pase mucho tiempo antes de que las calles de la ciudad de Nueva York estén llenas de taxis autónomos que se deslizan silenciosamente por la Quinta Avenida, al puro estilo de Tokio.

Milenka Peña
Ex escritor de Digital Trends en Español
Milenka Peña es periodista, escritora, productora y conductora de radio y televisión, nominada a los Premios Emmy por…
Video: robot haciendo kung-fu nos advierte que la rebelión de las máquinas está cerca
Robot haciendo Kung Fu

La gente a menudo bromea sobre el llamado "levantamiento de los robots", pero un nuevo video del avanzado robot G1 de Unitree haciendo algunos movimientos de kung fu bien podría borrar la sonrisa de sus rostros.
Compartido el martes, el clip de 15 segundos muestra a un humano con un palo que se retira de un robot que luego le quita el palo de la mano. Digámoslo de nuevo: un humano con un palo que se retira de un robot.

Si eso no es suficiente para que su cara comience a temblar, las imágenes no se aceleran de ninguna manera, y el robot se mueve sin esfuerzo como una especie de Bruce Lee cubierto de plástico.
Hace solo una semana, Unitree Robotics publicó un video de G1 realizando una serie de movimientos de kung fu, pero este último clip muestra que en realidad se enfrenta a un humano. Y ganando.

Leer más
Steve Wozniak le da con todo a Elon Musk: «no sé que tiene en la cabeza»
Steve Wozniak podría haber llevado el coronavirus a EEUU

El cofundador de Apple, Steve Wozniak, nunca se ha guardado sus opiniones, y sin pelos en la lengua siempre ha dado su parecer sobre el mundo de la tecnología y sus personajes. Ahora los dardos fueron directamente contra Elon Musk por su nuevo rol en el gobierno de Donald Trump: en el Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés) para optimizar el gobierno federal y reducir su gasto administrativo.
"Definitivamente creo que deberíamos buscar ineficiencias en el gobierno, pero tenemos un departamento enorme que analiza paso a paso", dijo Wozniak a CNBC. "Solo despidos masivos... no es bueno para un negocio funcionar de esa manera", refiriéndose a los profundos recortes de empleos de DOGE en varias agencias gubernamentales. Realmente se trata de descubrir qué funciona y qué no, hacer los cambios". El ex compañero de Steve Jobs agregó que, es un proceso que debe hacerse "de manera más quirúrgica, con un bisturí en lugar de un mazo".

Y fue en ese momento, cuando Wozniak comenzó a disparar contra Elon Musk por intimidar a la gente:
"Elon Musk, no sé qué se le metió en la cabeza. A veces te haces tan rico en estas grandes empresas, y estás en la cima, se te sube a la cabeza, y eres la persona más increíble del mundo y la más brillante y vas a dictar lo que otros harán".
El cofundador de Apple agregó que Trump y Musk están actuando como el malo del colegio.
"El acoso es la mejor manera de pensarlo", dijo a CNBC. "Si estás en la escuela, el matón va a forzar su camino con el pequeño".
Por último, Wozniak manifestó que tiene la sospecha de que Elon Musk lo eliminó de X.com, principalmente por sus críticas a Tesla.
"Cada paso que daban en el que cambiaban cosas en el coche, empeoraba y empeoraba y empeoraba, y ahora es simplemente miserable para la interfaz de usuario", dijo. "Viniendo de Apple, la interfaz de usuario, la forma en que tratas con la tecnología, es lo más importante del mundo para mí. Y Tesla es el peor del mundo en eso".

Leer más
OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad
¿Es peligrosa la inteligencia artificial?

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.
El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar "un gran salto", diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.
La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue "discontinuo" y que no se lanzó inicialmente debido a "preocupaciones sobre aplicaciones maliciosas", pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.
"El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo", escribió Brundage en X. "El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución".
Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, "Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA".
Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los "productos brillantes" sobre la seguridad.

Leer más