Skip to main content
  1. Casa
  2. Casa inteligente
  3. Noticias
  4. News

Alexa de Amazon tendrá titiritero: la IA de Claude estará atrás

Te explicamos cómo cambiar la voz de Alexa (o su idioma).
Jonathan Borba/Pexels / Digital Trends Español

La gente de Amazon tuvo que tomar una decisión difícil, pero sabia a la larga. O seguía adelante con la creación de su propio sistema de IA, o hacía alguna alianza y eligió por el último camino, para proveer a su Alexa de respuestas acordes a los nuevos tiempos.

La versión mejorada de Alexa que se espera que Amazon lance este año será impulsada principalmente por el modelo de inteligencia artificial Claude de Anthropic, según Reuters.

Recommended Videos

La publicación informa que las versiones iniciales del asistente de voz más inteligente de Amazon, basado en suscripción, que utilizaba la propia IA de la compañía, resultaron insuficientes, con pruebas erróneas e instrucciones que nunca alcanzaron estatus satisfactorios.

Amazon invirtió 4.000 millones de dólares en Claude AI el año pasado con la promesa de que los clientes de Amazon obtendrían en algún momento acceso temprano a la tecnología de inteligencia artificial de la compañía.

Por otra parte, el desarrollo de la nueva tecnología de Alexa, denominada «Remarkable Alexa», ha estado plagada de problemas desde que se anunció en septiembre pasado, según Fortune.

Tras los retrasos en el lanzamiento, se dice que Remarkable Alexa llegará en algún momento a mediados de octubre. Las características esperadas incluyen resúmenes diarios de noticias generados por IA, un chatbot centrado en los niños y herramientas de compra conversacionales, según un informe de The Washington Post.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Amazon miente: eso dice demanda sobre la compra de películas
Amazon Prime Video

Uno de los negocios que tiene la plataforma Amazon Prime Video, es la posibilidad de comprar películas de estreno, o que hace poco salieron de la cartelera de los cines. Un reemplazo al antiguo Blockbuster que permite ver algo On Demand. Sin embargo, los usuarios no están muy satisfechos con el servicio que está entregando el servicio de streaming, y así lo está demostrando una reciente demanda.

La argumentación de los clientes, es que Amazon ofrece comprar una película, cuando la realidad es que ese término no está bien aplicado, ya que finalmente es el arriendo de una licencia por un tiempo limitado de visualización, y que en algún minuto desaparecerá de tu biblioteca de títulos.

Leer más
La IA de Google no cree que 1995 fue hace 30 años atrás
1995

Un error bastante curioso y que nuevamente siembra dudas sobre la IA, es el que descubrieron varios usuarios en redes sociales y que ha sido replicado por el sitio Mashable, que también hizo pruebas: las nuevas herramientas de búsqueda de IA de Google parecen no tener claro que 1995 fue hace 30 años atrás.

Las personas en línea notaron que las descripciones generales de IA de Google parecían tener problemas con esta consulta en particular. Se convirtió casi en una especie de tendencia preguntar: "¿Fue 1995 hace 30 años?" Mucha gente publicó capturas de pantalla que parecían mostrar a Google respondiendo con respuestas incorrectas; por lo general, AI Overviews decidió que 1995 fue hace 29 años, por alguna razón.

Leer más
Claude AI detendrá las «interacciones dañinas o abusivas de los usuarios»
Claude

La IA está tomando sus propias medidas para autocensurarse cuando las conversaciones se vayan un poco de las manos o al menos es lo que está tratando de incorporar Anthropic con Claude AI.

El chatbot ahora puede poner fin a conversaciones consideradas "persistentemente dañinas o abusivas", como lo detectó TechCrunch. La capacidad ahora está disponible en los modelos Opus 4 y 4.1, y permitirá que el chatbot finalice las conversaciones como "último recurso" después de que los usuarios le pidan repetidamente que genere contenido dañino a pesar de múltiples rechazos e intentos de redirección. El objetivo es ayudar al "bienestar potencial" de los modelos de IA, dice Anthropic, al terminar con los tipos de interacciones en las que Claude ha mostrado "angustia aparente".

Leer más