Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Microsoft: La IA no sustituye a la experiencia humana

Microsoft Copilot le permite hacer preguntas a un asistente de IA dentro de las aplicaciones de Office.
Microsoft

Microsoft ha actualizado los términos de servicio que entrarán en vigor a finales de septiembre y está aclarando que sus servicios de IA Copilot no deben utilizarse como sustituto de los consejos de humanos reales.

Los agentes basados en IA están apareciendo en todas las industrias, ya que los chatbots se utilizan cada vez más para llamadas de servicio al cliente, aplicaciones de salud y bienestare incluso para brindar asesoramiento legal. Sin embargo, Microsoft recuerda una vez más a sus clientes que las respuestas de sus chatbots no deben tomarse como un evangelio. «Los servicios de IA no están diseñados, destinados ni destinados a ser utilizados como sustitutos del asesoramiento profesional», se lee en el Acuerdo de Servicio actualizado.

Recommended Videos

La compañía se refirió específicamente a sus bots de salud como ejemplo. Los bots «no están diseñados ni pretenden ser sustitutos del asesoramiento médico profesional ni para su uso en el diagnóstico, cura, mitigación, prevención o tratamiento de enfermedades u otras afecciones», explican los nuevos términos. «Microsoft no es responsable de ninguna decisión que tome en función de la información que reciba de los bots de salud».

El Acuerdo de servicio revisado también detalló prácticas adicionales de IA que ya no están permitidas explícitamente. Los usuarios, por ejemplo, no pueden utilizar sus servicios de IA para extraer datos. «A menos que se permita explícitamente, no puede utilizar métodos de raspado web, recolección web o extracción de datos web para extraer datos de los servicios de IA», se lee en el acuerdo. La compañía también está prohibiendo los intentos de ingeniería inversa para revelar los pesos del modelo o usar sus datos «para crear, entrenar o mejorar (directa o indirectamente) cualquier otro servicio de IA».

«No puede utilizar los servicios de IA para descubrir ningún componente subyacente de los modelos, algoritmos y sistemas», se lee en los nuevos términos. «Por ejemplo, no puede intentar determinar y eliminar los pesos de los modelos ni extraer ninguna parte de los servicios de IA de su dispositivo».

Microsoft ha hablado durante mucho tiempo sobre los peligros potenciales del mal uso de la IA generativa. Con estos nuevos términos de servicio, Microsoft parece estar apostando por la cobertura legal a medida que sus productos de IA ganan ubicuidad.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
MAI-Image-1: el potente rival de Nano Banana de Microsoft
MAI Image 1

¿Qué ha pasado? Microsoft AI ha presentado el nombre ligeramente torpe MAI-Image-1, su sistema interno de texto a imagen. El discurso es sencillo, genera imágenes útiles rápidamente, no demostraciones llamativas que se desmoronan en la práctica.

En una publicación de blog, Microsoft señala que su sistema ya está en el top 10 de modelos de texto a imagen en LMArena.

Leer más
Esta es la facilidad con la que los chatbots de IA se pueden envenenar
Ilustración hecha con IA de un robot loco

¿Qué ha pasado? Anthropic, la firma de inteligencia artificial detrás de los modelos de Claude que ahora impulsa Copilot de Microsoft, ha arrojado un hallazgo impactante. El estudio, realizado en colaboración con el Instituto de Seguridad de IA del Reino Unido, el Instituto Alan Turing y Anthropic, reveló la facilidad con la que los grandes modelos de lenguaje (LLM) pueden envenenarse con datos de entrenamiento maliciosos y dejar puertas traseras para todo tipo de travesuras y ataques.

El equipo realizó experimentos en múltiples escalas de modelos, de 600 millones a 13 mil millones de parámetros, para ver cómo los LLM son vulnerables a arrojar basura si se alimentan con datos incorrectos extraídos de la web.

Leer más
¿La IA hizo perder más de 1 millón de fans en Instagram a Taylor Swift?
Taylor Swift

El 12º álbum de estudio de Taylor Swift, The Life of a Showgirl, no ha estado exento de polémica, y más allá de las necesarias y siempre presentes críticas artísticas, ahora la paradoja es que la IA está derrumbando a la famosa cantante.

Lo que inicialmente comenzó como una crítica a la dirección creativa del álbum ahora se ha convertido en una indignación en toda regla en las redes sociales después de que los fanáticos descubrieran que la estrella del pop supuestamente usó Inteligencia Artificial para diseñar su rompecabezas de "puerta naranja" y su juego de realidad alternativa con fines promocionales.

Leer más