Es gibt einen wachsenden Trend, dass Menschen und Organisationen die unaufgeforderte Durchsetzung von Straftaten ablehnen KI in ihrem Leben. Im Dezember 2023 wurde die Die New York Times verklagte OpenAI und Microsoft wegen Urheberrechtsverletzung. Im März 2024 reichten drei Autoren in Kalifornien eine Sammelklage dagegen ein Nvidia wegen angeblicher Schulung seiner KI-Plattform NeMo auf ihre urheberrechtlich geschützte Arbeit. Zwei Monate später die A-Schauspielerin Scarlett Johansson hat einen juristischen Brief an OpenAI geschickt als ihr klar wurde, dass die neue ChatGPT-Stimme ihrer „unheimlich ähnlich“ war.
Die Technologie ist hier nicht das Problem. Die Leistungsdynamik ist. Die Menschen verstehen, dass diese Technologie auf ihren Daten aufgebaut wird, oft ohne unsere Erlaubnis. Es ist kein Wunder, dass das Vertrauen der Öffentlichkeit in KI abnimmt. Eine aktuelle Studie von Pew-Forschung zeigt, dass mehr als die Hälfte der Amerikaner über KI mehr besorgt als begeistert sind, eine Meinung, die von der Mehrheit der Menschen aus mittel- und südamerikanischen, afrikanischen und nahöstlichen Ländern in a geteilt wird Weltrisikoumfrage.
Im Jahr 2025 werden wir sehen, dass die Menschen mehr Kontrolle darüber fordern, wie KI eingesetzt wird. Wie wird das erreicht? Ein Beispiel ist Red Teaming, eine dem Militär entlehnte Praxis, die in der Cybersicherheit eingesetzt wird. Bei einer Red-Teaming-Übung werden externe Experten gebeten, ein System zu „infiltrieren“ oder zu zerstören. Es dient als Test dafür, wo bei Ihren Abwehrmaßnahmen Fehler auftreten können, damit Sie diese beheben können.
Red Teaming wird von großen KI-Unternehmen verwendet, um Probleme in ihren Modellen zu finden, ist jedoch noch nicht als Praxis für die öffentliche Nutzung weit verbreitet. Das wird sich im Jahr 2025 ändern.
Die Anwaltskanzlei DLA Piper etwa nutzt mittlerweile Red Teaming mit Anwälten, um direkt zu testen, ob KI-Systeme rechtliche Rahmenbedingungen einhalten. Meine gemeinnützige Organisation Humane Intelligence führt Red-Teaming-Übungen mit nichttechnischen Experten, Regierungen und Organisationen der Zivilgesellschaft durch, um KI auf Diskriminierung und Voreingenommenheit zu testen. Im Jahr 2023 führten wir eine Red-Teaming-Übung mit 2.200 Teilnehmern durch, die vom Weißen Haus unterstützt wurde. Im Jahr 2025 werden sich unsere Red-Teaming-Events auf die gelebte Erfahrung normaler Menschen stützen, um KI-Modelle auf Islamophobie und ihre Fähigkeit, Online-Belästigung von Frauen zu ermöglichen, zu bewerten.
Wenn ich eine dieser Übungen moderiere, wird mir am häufigsten die Frage gestellt, wie wir von der Problemerkennung zur eigenen Problemlösung übergehen können. Mit anderen Worten: Die Menschen wollen ein Recht auf Reparatur.
Ein KI-Recht auf Reparatur könnte so aussehen: Ein Benutzer könnte die Möglichkeit haben, Diagnosen für eine KI durchzuführen, etwaige Anomalien zu melden und zu sehen, wann sie vom Unternehmen behoben werden. Gruppen Dritter, etwa ethische Hacker, könnten Patches oder Korrekturen für Probleme erstellen, auf die jeder zugreifen kann. Oder Sie könnten eine unabhängige, akkreditierte Partei damit beauftragen, ein KI-System zu bewerten und es für Sie anzupassen.
Während dies heute eine abstrakte Idee ist, bereiten wir die Voraussetzungen dafür, dass ein Recht auf Reparatur in Zukunft Realität wird. Die aktuelle, gefährliche Machtdynamik umzukehren, wird einiges an Arbeit erfordern – wir werden schnell dazu gedrängt, eine Welt zu normalisieren, in der KI-Unternehmen einfach neue und ungetestete KI-Modelle in reale Systeme einbauen, mit normalen Menschen als Kollateralschaden. Ein Recht auf Reparatur gibt jedem Menschen die Möglichkeit zu kontrollieren, wie KI in seinem Leben eingesetzt wird. 2024 war das Jahr, in dem die Welt die Verbreitung und den Einfluss von KI erkannte. 2025 ist das Jahr, in dem wir unsere Rechte einfordern.