Mise à jour du contrat de service d'IA de Microsoft : prudence recommandée pour les utilisateurs
Le 19 août, Microsoft a annoncé une mise à jour de son contrat de service d'IA en réponse aux discussions en cours sur l'exactitude des outils d'IA. L'entreprise incite désormais les utilisateurs à faire preuve de prudence, soulignant que ses outils d'IA sont des ressources complémentaires et non des substitutions à des conseils professionnels.
Les nouvelles conditions entreront en vigueur à la fin du mois prochain et mettent particulièrement en avant les risques liés à son chatbot de santé. Microsoft met en garde les utilisateurs contre les dangers d'une confiance excessive dans ses recommandations. L'accord révisé précise : "Les services d'IA ne sont ni conçus ni destinés à remplacer des conseils professionnels." De plus, le chatbot de santé ne doit pas remplacer l'expertise médicale et ne doit pas être utilisé pour diagnostiquer, traiter ou prévenir des maladies, entre autres usages connexes.
L'accord stipule également que l'expérience AI Copilot, régie par les conditions de Bing, ne peut pas extraire de données par des méthodes de scraping ou de collecte, sauf autorisation explicite de Microsoft. En outre, les nouvelles conditions imposent des restrictions plus strictes sur le reverse engineering des modèles d'IA et incluent des mesures de protection pour interdire l'utilisation des services d'IA pour dévoiler des composantes sous-jacentes.
Ces révisions du contrat d'IA de Microsoft témoignent de la volonté proactive de l'entreprise de traiter d'éventuels problèmes de responsabilité tout en gérant clairement les attentes des utilisateurs. Ce mouvement rappelle que la technologie IA ne remplacera probablement pas complètement les rôles humains dans un avenir proche.