Skip to main content
  1. Casa
  2. Redes sociales
  3. Computación
  4. Noticias
  5. Tendencias
  6. Legacy Archives

Robot de Microsoft se vuelve racista en Twitter

Tay es un robot de inteligencia artificial que Microsoft desarrolló para que participe y aprenda el lenguaje de los “millenials” a través de conversaciones en línea por Twitter.

Sin embargo, en menos de 24 horas, los usuarios de la red social le enseñaron un lenguaje racista.

Recommended Videos

Relacionado: Google y Movidius se unen para incluir inteligencia artificial en celulares

Así como lo lees. En pocas horas, Tay estaba tuiteando contenido racista en la red, lo que obligó a Microsoft a dar de baja al robot y eliminar los tuits más comprometedores.

Tay empezó la jornada tuiteando frases normales como “¿Puedo decirte que estoy muy emocionada de conocerte? Los humanos son super “cool””, pero en poco tiempo, terminó utilizando frases incendiarias como “Hitler tenía razón, odio a los judíos” y “las feministas “deberían morir todas y quemarse en el infierno”.

twitter
Imagen utilizada con permiso del titular de los derechos de autor

Es necesario resaltar que el robot de inteligencia artificial aprendió las frases de los humanos. Tay fue diseñada con los algoritmos necesarios para aprender el lenguaje de los millenials y poder sostener conversaciones.

Entre más se interactúa con ella, más aprende. De esa forma, las conversaciones se hacen más personalizadas.

Fueron los denominados “trolls” (personas cuyo propósito en la red es molestar y provocar reacciones negativas de otros usuarios) quienes enseñaron esas frases que luego le repitió a otras personas.

En una declaración a TechCrunch, Microsoft indicó que ya estaba arreglando los algoritmos y poniendo filtros para que Tay dejara de repetir contenido racista.

Relacionado: Sistema de inteligencia artificial promete escribir discursos políticos

Después de esta declaración, muchas personas se preguntan si ese cambio no modifica el objetivo que la empresa buscaba alcanzar con este robot.

Ponerle filtros en la boca a un robot de aprendizaje no permitiría que este aprenda todo tipo de comportamiento y expresiones humanas.

Y otros dirán que muchas personas no dicen todo lo que piensan en la red, lo cual hace también parte del aprendizaje de valores humanos como el respeto por las opiniones ajenas.

El problema en este caso aparece cuando hay esfuerzos de varios usuarios para abusar del robot y que este termine mostrando la cara más oscura de la humanidad.

Juliana Jara
Ex escritor de Digital Trends en Español
Una actualización muy esperada para Youtube Music está llegando
Youtube Music

¿Qué ha pasado? YouTube Music está probando discretamente una forma de buscar dentro de listas de reproducción. Un pequeño grupo de usuarios de iOS ve ahora un nuevo botón de Buscar en la lista de reproducción en la app, lo que sugiere un despliegue limitado en el servidor.

En un hilo de Reddit, un usuario de YouTube Music versión 8.45.3 compartió una captura de pantalla de la opción de Buscar en la lista de reproducción y dijo que está basado en India.

Leer más
Ahora podrás bloquear tu contenido robado en Instagram y Facebook
Meta content Protection

¿Qué ha pasado? Meta ha lanzado una nueva herramienta de Protección de Contenidos en Facebook para ayudar a los creadores a evitar que la gente republique sus vídeos sin permiso. Escanea automáticamente Facebook en busca de copias de tus reels o vídeos y te avisa cuando se encuentra una coincidencia.

Cuando alguien sube un vídeo que se parezca al tuyo, Facebook lo marca y te muestra detalles como el porcentaje de coincidencias, el número de visualizaciones y la audiencia de la otra cuenta.

Leer más
Grave vulneración de WhatsApp: más de 3 mil millones de números filtrados
se cayo whatsapp hoy mejores sitios para monitorear su estado cay

Una grave vulneración, pero con un exploit caratulado de simple, afectó a WhatsApp, en un incidente que además había sido avisado años antes a Meta por parte de investigadores (más específicamente la advertencia saltó en 2017).

Este exploit "simple" puede extraer un total de 3.500 millones de números de teléfono del servicio de mensajería. Los investigadores afirman que si el mismo exploit hubiera sido utilizado por actores malintencionados, el resultado habría sido "la mayor filtración de datos de la historia."

Leer más