Google Cloud geht einen bedeutenden Schritt, um seine Kunden zu beruhigen, indem es sich verpflichtet, rechtliche Ansprüche aus Urheberrechtsverletzungen im Zusammenhang mit seinen KI-Tools zu übernehmen. Diese Zusage ist besonders wichtig für Unternehmen, die KI-Modelle verwenden, die mit urheberrechtlich geschützten Inhalten trainiert wurden. Die Absicherung umfasst zwei wesentliche Szenarien: Erstens, wenn ein Unternehmenskunde aufgrund der Nutzung von KI-Modellen, die mit urheberrechtlich geschützten Daten von Google entwickelt wurden, verklagt wird; zweitens, wenn die Anwendung von Googles KI-Tools durch den Kunden unbeabsichtigt Werke hervorbringt, die gegen das Urheberrecht verstoßen.
In einem aktuellen Blogbeitrag von Neal Suggs, Vizepräsident für rechtliche Angelegenheiten bei Google Cloud, und Phil Venables, Chief Information Security Officer, wird darauf hingewiesen, dass dieser Schutz nicht völlig neu ist; Google hat bereits in der Vergangenheit Sicherheitsvorkehrungen hinsichtlich Trainingsdaten angeboten. Kunden haben jedoch den Wunsch nach klareren, expliziten Garantien für ihre rechtliche Sicherheit beim Einsatz dieser leistungsstarken Tools geäußert.
Der Schutz erstreckt sich über eine Vielzahl von Diensten. Duet AI, das zur Unterstützung bei Aufgaben wie dem Verfassen von E-Mails und der Verbesserung von Präsentationen durch das Hinzufügen von Bildern konzipiert ist, ist in die Google Workspace-Tools wie Google Docs, Gmail, Slides und Meet integriert. Darüber hinaus gilt der Schutz auch für Vertex AI, eine fortschrittliche Plattform, die MLOps-Strategien zur Verwaltung von Machine-Learning-Projekten unterstützt. Zu den geschützten Funktionen von Vertex AI gehören Suchfunktionen, Verbesserungen von Konversationen, Text-Embedding-APIs für multimodale Integrationen, visuelle Beschriftungen über Visual Q&A und Codey-APIs für die Codegenerierung.
Es ist wichtig zu betonen, dass dieser Schutz entfällt, wenn Kunden absichtlich gegen das Urheberrecht verstoßen. Dieser Ansatz steht im Einklang mit den jüngsten Ankündigungen von Branchenriesen wie Microsoft und Adobe. Letzten Monat verpflichtete sich Microsoft, die Verantwortung in Fällen zu übernehmen, in denen seine Unternehmenskunden, die Produkte von AI Copilot nutzen, mit Urheberrechtsklagen konfrontiert werden. Ebenso hat Adobe mit seinem neuesten generativen KI-Tool Firefly seine bestehenden Schutzmaßnahmen für Stockbilder erweitert, um auch generierte Bilder einzuschließen.
Obwohl diese rechtlichen Zusicherungen bedeutend sind, stehen Unternehmen, die generative KI integrieren, vor zusätzlichen Herausforderungen über Urheberrechtsbedenken hinaus. Themen wie KI-Halluzinationen – bei denen Modelle fiktive Informationen erzeugen oder Unwahrheiten als genau präsentieren – sowie Vorurteile, Cybersicherheitsanfälligkeiten, hohe Betriebskosten, die Komplexität von Modellarchitekturen und ein Mangel an qualifiziertem KI-Personal bleiben verbreitete Hindernisse im Bereich der generativen KI. Diese Faktoren erfordern eine umfassende Strategie für Organisationen, die KI-Technologien effektiv und verantwortungsvoll nutzen möchten.