Microsoft a mis à jour ses conditions de service, en vigueur à la fin septembre, en soulignant que ses services d'IA Copilot ne doivent pas remplacer les conseils professionnels humains. Les agents pilotés par IA sont de plus en plus présents dans divers secteurs, agissant en tant que chatbots dans le service client, dans des applications de santé et de bien-être, et même en fournissant des informations juridiques. Cependant, Microsoft rappelle à ses utilisateurs que les réponses de ses chatbots ne doivent pas être considérées comme des conseils définitifs. Le nouvel Accord de Service stipule clairement : « Les services d'IA ne sont pas conçus, destinés ou à utiliser comme des substituts aux conseils professionnels. »
L'entreprise met en avant ses bots de santé comme exemple spécifique, précisant que ces bots « ne sont pas conçus ni destinés à remplacer les conseils médicaux professionnels ou à diagnostiquer, guérir, atténuer, prévenir ou traiter des maladies ou d'autres conditions. » De plus, les termes affirment : « Microsoft n'est pas responsable des décisions que vous prenez sur la base des informations reçues des bots de santé. »
L'Accord de Service révisé définit également des restrictions supplémentaires sur l'utilisation de l'IA. Par exemple, les utilisateurs sont interdits d'extraire des données en utilisant les services d'IA. L'accord précise : « Sauf autorisation explicite, vous ne pouvez pas utiliser des méthodes de scraping, de récolte ou d'extraction de données web pour extraire des données des services d'IA. » Microsoft interdit également toute tentative de reverse engineering visant à découvrir les poids du modèle ou à utiliser ses données « pour créer, entraîner ou améliorer (directement ou indirectement) tout autre service d'IA. » Les termes énoncent clairement : « Vous ne devez pas utiliser les services d'IA pour découvrir les composants sous-jacents des modèles, algorithmes et systèmes. » Cela inclut les efforts pour déterminer et retirer les poids du modèle ou extraire des portions des services d'IA.
Microsoft a toujours exprimé des préoccupations concernant le potentiel de mauvaise utilisation de l'IA générative. Avec ces conditions de service mises à jour, l'entreprise cherche à établir des mesures de protection juridiques alors que ses produits d'IA continuent de gagner en popularité.