Microsoft aktualisiert die AI-Servicevereinbarung und rät Nutzern zur Vorsicht
Am 19. August kündigte Microsoft ein Update seiner AI-Servicevereinbarung an, während laufende Diskussionen über die Genauigkeit von KI-Tools fortgesetzt werden. Das Unternehmen fordert die Nutzer nun auf, seine Dienste mit erhöhter Vorsicht zu nutzen und betont, dass die KI-Tools als ergänzende Ressourcen und nicht als Ersatz für professionelle Beratung gedacht sind.
Die neuen Bedingungen treten Ende nächsten Monats in Kraft und heben speziell die Risiken im Zusammenhang mit dem Gesundheits-Chatbot hervor. Microsoft warnt Nutzer vor den möglichen Gefahren einer übermäßigen Abhängigkeit von den Vorschlägen seiner Dienste. Die überarbeitete Vereinbarung besagt klar: "KI-Dienste sind weder dafür ausgelegt noch beabsichtigt, professionelle Beratung zu ersetzen." Zudem ist der Gesundheits-Chatbot nicht als Ersatz für medizinische Expertise vorgesehen und sollte nicht zur Diagnose, Behandlung oder Prävention von Krankheiten verwendet werden.
Die Vereinbarung legt auch fest, dass die Copilot-AI-Erfahrung, die von den Bedingungen von Bing geregelt wird, keine Daten durch Scraping oder andere Sammelmöglichkeiten extrahieren darf, es sei denn, Microsoft erlaubt dies ausdrücklich. Darüber hinaus auferlegen die aktualisierten Bedingungen strengere Einschränkungen für das Reverse Engineering von KI-Modellen und beinhalten Schutzmaßnahmen, um die Nutzung der KI-Dienste zum Aufdecken zugrunde liegender Komponenten zu verbieten.
Diese Anpassungen der Microsoft-AI-Bedingungen zeigen die proaktive Haltung des Unternehmens, potenzielle Haftungsfragen anzugehen und gleichzeitig die Erwartungen der Nutzer klar zu steuern. Dieser Schritt erinnert daran, dass KI-Technologie in naher Zukunft wahrscheinlich nicht vollständig menschliche Rollen ersetzen wird.