Verantwortungsvolle KI: Eine kritische Diskussion in der Technologie
Verantwortungsvolle Künstliche Intelligenz (KI) ist ein zentrales Thema der heutigen Technologielandschaft. Während Entwickler versuchen, die nachlässige oder böswillige Nutzung von generativer KI und großen Sprachmodellen (LLMs) zu verhindern, entwickeln sich weltweit die Regulierungen für KI. Doch KI-Entwickler und Organisationen benötigen jetzt effektive Lösungen.
Diese zunehmende Besorgnis hat zur Einführung von Lizenzen mit spezifischen Verhaltensnutzungsbedingungen geführt, darunter die gemeinnützigen Verantwortlichen KI-Lizenzen (Responsible AI Licenses, RAIL). Diese Lizenzen beschränken rechtlich, wie KI-Modelle, Code und Trainingsdaten genutzt werden dürfen, wenn sie geteilt werden.
Um die Anpassung und Standardisierung angesichts der beschleunigten Einführung von generativer KI zu fördern, hat RAIL den Rail License Generator ins Leben gerufen. Dieses innovative Tool ermöglicht es KI-Entwicklern, relevante Artefakte zur Lizenzierung auszuwählen und Nutzungseinschränkungen aus einem kuratierten Katalog aufzuerlegen.
„Ein Basis-Modell bietet normalerweise umfangreiche Vielseitigkeit — es kann verschiedene Sprachen interpretieren und in downstream-Anwendungen mit minimalen Anpassungen eingesetzt werden“, erklärte Daniel McDuff, Co-Vorsitzender von RAIL. Er fügte hinzu: „Früher gab es weniger Bedarf an Anwendungsbeschränkungen. Heutzutage können jedoch diese vielseitigen Modelle leicht umfunktioniert werden, was diese Lizenzen unverzichtbar macht.“
Ethische Prinzipien rechtlich kodifizieren
Seit seiner Gründung im Jahr 2018 hat die RAIL-Initiative 41.700 Modell-Repositories mit RAIL-Lizenzen erreicht. Bemerkenswerte Modelle mit Verhaltensnutzungsbedingungen sind unter anderem Hugging Face's BLOOM, Metas Llama 2, Stable Diffusion und Grid.
Der Rail License Generator zielt darauf ab, diese Zahl durch Senkung der Zugangsbarrieren zu erhöhen. Entwickelt von der RAIL-Arbeitsgruppe für Werkzeuge und prozedurale Governance, geleitet von Jesse Josua Benjamin, Scott Cambo und Tim Korjakow, bietet dieses Tool einen vereinfachten Prozess zur Erstellung maßgeschneiderter Lizenzen.
Benutzer beginnen mit der Auswahl eines Lizenztyps, der eine erste Vorlage generiert. Verfügbare Lizenztypen sind:
- Open RAIL: Erlaubt Entwicklern die Nutzung, Verteilung und Modifikation lizenzierten Artefakte, solange sie die festgelegten Verhaltensbeschränkungen einhalten.
- Research RAIL: Beschränkt die Nutzung lizenzierten Artefakte ausschließlich auf Forschungszwecke und untersagt kommerzielle Nutzungen unter Einhaltung der Verhaltensbeschränkungen.
- RAIL: Schließt Verhaltensnutzungsbedingungen aus, könnte jedoch zusätzliche Bestimmungen enthalten, die regeln, wer das lizenzierte Artefakt nutzen kann und wie es verwendet werden darf.
Im nächsten Schritt wählen die Benutzer die Artefakte aus, die sie lizenzierten oder teilen möchten, oft verbunden mit der sorgfältigen Freigabe von Code, Algorithmen oder Modellen im Zusammenhang mit KI. Anschließend können sie aus einer Reihe von systemspezifischen Einschränkungen wählen.
Die endgültige Lizenz kann in LaTeX, im Rohtext- und Markdown-Format exportiert werden, einschließlich PNG-Downloads von Domain-Icons und QR-Codes, die zur vollständigen Lizenz verlinken.
Der Rail License Generator unterstützt Personen, die keinen Zugang zu rechtlichen Teams haben, wird aber auch von großen und kleinen Organisationen genutzt. McDuff wies auf eine häufige „Schicht der Unsicherheit“ im Verfassen von Lizenzdokumenten hin, da die Sprache an spezifische Bereiche, Kontexte und KI-Typen angepasst werden muss. Viele Entwickler zögern, da sie sich unqualifiziert fühlen, um rechtliche Begriffe zu formulieren.
„Die Erstellung einer Lizenz dauert jetzt nur wenige Minuten, sobald Sie die gewünschten Klauseln identifiziert haben“, sagte McDuff. „Dieses Tool kodifiziert ethische Prinzipien mit rechtlicher Autorität.“
Der Einfluss von KI auf traditionelle wissenschaftliche Prozesse
Offenheit und Open-Source-Initiativen sind grundlegend für die wissenschaftliche Forschung und technologischen Fortschritt, da sie die Überprüfung und Prüfung von Ergebnissen ermöglichen. Diese Offenheit hat der KI erheblich genützt, obwohl Basis-Modelle aufgrund ihrer anpassungsfähigen Natur einzigartige Herausforderungen darstellen.
Obwohl Entwickler häufig leistungsstarke Modelle mit guten Absichten schaffen, kann die Vielseitigkeit dieser Modelle unbeabsichtigte oder schädliche Anwendungen nach sich ziehen. Dezentralisierung verschärft diese Risiken und erschwert die Verantwortlichkeit und Handlungsmöglichkeiten für nachgelagerte Nutzer.
„Open Source ist vorteilhaft, doch die Situation wird komplexer, wenn ein einzelner Akteur erheblichen Einfluss auf nachgelagerte Prozesse ausüben kann, beispielsweise durch die Verbreitung von Fehlinformationen“, warnte McDuff.
Danish Contractor, Co-Vorsitzender von RAIL, hob die Verwirrung hervor, mit der Entwickler hinsichtlich der Nutzungseinschränkungen konfrontiert sind. „Viele nehmen an, wenn ‘KI X tun kann, dann kann sie auch Y tun‘“, erklärte er. Ein medizinisches Modell könnte beispielsweise absichtlich oder unbeabsichtigt in Bereichen wie Robotik oder militärischen Anwendungen missbraucht werden.
Effektive Kommunikation und der Zugang zu Werkzeugen zur Verfolgung und Durchsetzung von Lizenzverletzungen sind unerlässlich, betonte Contractor. Verhaltensbeschränkungen können ein Gleichgewicht aus Konsistenz und Vielfalt in den angewendeten Klauseln bieten. Während einige Klauseln universell anwendbar sind, wie solche gegen Diskriminierung und Desinformation, ist Standardisierung von entscheidender Bedeutung.
„Es besteht ein Bedarf an Werkzeugen, die helfen, vertraute und flexible Lizenzen mit einem gewissen Maß an notwendiger rechtlicher Sprache zu erstellen“, wiederholte McDuff. Er schloss mit den Worten: „Das Risiko im Zusammenhang mit unsachgemäßer Nutzung von Open-Source-Code ist für Unternehmen wie Google oder Microsoft zu erheblich, um es zu ignorieren.“