Microsoft ha actualizado los términos de servicio que entrarán en vigor a finales de septiembre y está aclarando que sus servicios de IA Copilot no deben utilizarse como sustituto de los consejos de humanos reales.
Los agentes basados en IA están apareciendo en todas las industrias, ya que los chatbots se utilizan cada vez más para llamadas de servicio al cliente, aplicaciones de salud y bienestar, e incluso para brindar asesoramiento legal. Sin embargo, Microsoft recuerda una vez más a sus clientes que las respuestas de sus chatbots no deben tomarse como un evangelio. «Los servicios de IA no están diseñados, destinados ni destinados a ser utilizados como sustitutos del asesoramiento profesional», se lee en el Acuerdo de Servicio actualizado.
La compañía se refirió específicamente a sus bots de salud como ejemplo. Los bots «no están diseñados ni pretenden ser sustitutos del asesoramiento médico profesional ni para su uso en el diagnóstico, cura, mitigación, prevención o tratamiento de enfermedades u otras afecciones», explican los nuevos términos. «Microsoft no es responsable de ninguna decisión que tome en función de la información que reciba de los bots de salud».
El Acuerdo de servicio revisado también detalló prácticas adicionales de IA que ya no están permitidas explícitamente. Los usuarios, por ejemplo, no pueden utilizar sus servicios de IA para extraer datos. «A menos que se permita explícitamente, no puede utilizar métodos de raspado web, recolección web o extracción de datos web para extraer datos de los servicios de IA», se lee en el acuerdo. La compañía también está prohibiendo los intentos de ingeniería inversa para revelar los pesos del modelo o usar sus datos «para crear, entrenar o mejorar (directa o indirectamente) cualquier otro servicio de IA».
«No puede utilizar los servicios de IA para descubrir ningún componente subyacente de los modelos, algoritmos y sistemas», se lee en los nuevos términos. «Por ejemplo, no puede intentar determinar y eliminar los pesos de los modelos ni extraer ninguna parte de los servicios de IA de su dispositivo».
Microsoft ha hablado durante mucho tiempo sobre los peligros potenciales del mal uso de la IA generativa. Con estos nuevos términos de servicio, Microsoft parece estar apostando por la cobertura legal a medida que sus productos de IA ganan ubicuidad.