Interview zum Thema künstliche Intelligenz
Herr Hense, Künstliche Intelligenz (KI) ist gerade in aller Munde und alle sprechen drüber. Doch was ist KI überhaupt bzw. was verstehen Sie unter KI?
Künstliche Intelligenz ist ein märchenhafter Begriff, den wir Menschen für bestimmte Technologien erfunden haben. Merkmal «künstlicher Intelligenz» ist, dass es sich um Computersysteme handelt, die bestimmte Aufgaben erfüllen, z.B. das Schreiben von langen Texten, das Malen von Bildern oder das Komponieren von Musik. Alle diese setzen nach unserem menschlichen Verständnis intelligentes Leben voraus. Musik von Mozart, Gemälde von Rubens und Texte von Umberto Eco: Wir verbinden bestimmte Werke mit dem Wirken von Menschen. Entstehen ähnliche Werke durch Maschinen, wie derzeit bei populären Anwendungen auf Basis generativer Machine-Learning-Modelle wie ChatGPT (Text), Midjourney (Bild) oder MusicLM (Musik) zu beobachten lässt, schreiben wir Menschen diesen Technologien aus nachvollziehbaren Gründen menschlich-intelligente Eigenschaften zu. Um es kurz zu machen: Künstliche Intelligenz ist für uns Durchschnittsmenschen ein Stellvertreterbegriff für Technologien, die menschliches Wirken imitieren oder simulieren sollen, deren Funktionsweise wir aber nur begrenzt erklären können. KI klingt einfach knackig.
Seit wann beschäftigen Sie sich mit dem Thema KI und welche Berührungspunkte haben Sie mit KI bezogenen Fragestellungen in Ihrer beruflichen Tätigkeit als Rechtsanwalt?
Ich bin vielseitig interessiert, von alten Sprachen bis zu neuen Technologien fasziniert mich Vieles. Mein Beruf als Rechtsberater im Technologierecht gibt mir die Möglichkeit, mich immer wieder kritisch mit aktuellen Trends und Technologien auseinanderzusetzen. Als ich 2012 das Thema Künstliche Neuronale Netzwerke (KNN) das erste Mal unter dem Gesichtspunkt des Datenbankrechts für eine Due Diligence bei einem Unternehmenskauf betrachtete, war das der Beginn einer gewissen Haßliebe zu dem bunten Strauß an Technologien, der heute den Prägestempel «KI» trägt. Die Namen wandeln sich, die Probleme (Trainingsdaten, Einfluss menschlicher Gewichtung von Einzelwerten, mangelnde Erklärbarkeit der Resultate) sind wohl ewig, weil technologieimmanent. Heute stehen neben Urheberrecht vor allem das Datenschutzrecht und der Schutz von Geschäftsgeheimnissen auf dem Beratungsprogramm.
Können Sie uns anhand eines konkreten Falles erläutern, welche rechtlichen Herausforderungen sich insbesondere im Zusammenhang mit KI stellen?
Nichts einfacher als das: Ein Unternehmen aus der Schweiz setzt in seinem Onlineshop ein System zur automatisierten Betrugserkennung im Bestellprozess ein. Automatisiert bedeutet in diesem Fall, dass eine «KI» nach bekannten Mustern im Verhalten von Kunden sucht und dann bei einer gewissen Wahrscheinlichkeit für einen Verdachtsfall auf Betrug das gewählte Zahlungsmittel «Kreditkarte» ablehnt oder gar den Vertragsschluss insgesamt verweigert. Das System wurde trainiert auf Daten über Verhaltensweisen von US-Verbraucher:innen. Diese haben andere Namen, Wohnorte und Verhaltensweisen als Schweizer:innen. Das System erzeugt eine Vielzahl von «false positives», also falschen Warnmeldungen und verhindert Online-Käufe, weil es schlicht nicht auf das Zielland trainiert und optimiert wurde. KI kann nur so intelligent sein, wie das zugrundeliegende Modell und dessen Trainingsdaten. Klingt exotisch? Was ich hier beschreibe ist eher die Regel als die Ausnahme, denn gute Modelle zu trainieren kostet viel Zeit und Geld und damit einen Aufwand, den Anbieter sich aus wirtschaftlichen Gründen gern sparen möchten.
Derzeit ist der Begriff KI vermehrt in den Medien zu lesen. Oft werden GPT-3 (Sprachmodell) basierende Chatbots und deren Möglichkeiten dargestellt. Haben Sie bereits mit solchen Chatbots experimentiert oder gar in ihrer beruflichen Tätigkeit verwendet? Falls ja, was sind Ihre Erkenntnisse?
Ich komme nicht umhin, mich mit GPT und anderen «Large Language Models (LLM)» zu beschäftigen. Es ist faszinierend, wie hilfreich diese Werkzeuge sein können. Es ist gleichfalls faszinierend, wie wenig Verständnis die Nutzer dieser Technologie für deren Funktionsweise aufbringen. ChatGPT kann einen Text über ein Haus, eine Familie und einen Apfel schreiben, ohne auch nur den Hauch eines Verständnisses dafür zu haben, was ein Mensch, eine Wand oder eine Pflanze sind. Diese Modelle reihen Worte aneinander, die statistisch häufig auftreten. ChatGPT ist nicht verständig, sondern ein «stochastischer Papagei», der auf einer breiten textlichen Datenbasis gelernt hat, wohlklingende Worte aneinanderzureihen. Nicht mehr, nicht weniger. Wenn man sich als intelligenter Mensch dieser Grenzen bewusst ist, kann man mit diesen LLMs punktuell ganz nett arbeiten.
Wenn wir uns die (Trainings-)Modelle, die als Grundlage von KI-Systemen dienen, näher betrachten, drängt sich die Frage auf, wie algorithmische Verzerrungen (KI-Bias) weitgehendst verhindert werden können. Welche Lösungsansätze sehen Sie?
Mein Beispiel der Trainingsdaten aus den USA ist eines, das oft vorkommt. Wer ein Modell auf Daten trainiert, die voller Fehler sind, dessen Vorhersagen werden auf Basis dieses Modells entsprechend fehlerhaft sein. Für Sprachmodelle hieße das «Gosse statt Goethe», beim finanziellen Scoring sprechend wir dann von direkter oder indirekter Diskriminierung, wenn die Herkunft oder Wohnort eines Menschen in den Trainingsdaten negativ konnotiert sind. Es gibt verschiedene marktverfügbare Risikobewertungsmodelle, die automatisiert die Tatsache negativ bewerten, dass über eine Person im Internet keine Informationen zu finden sind oder diese Person keine der gängigen Verträge abgeschlossen hat (Mobilfunk, Streaming TV, Strom etc.). Weil das System hier eine Auffälligkeit im Vergleich zur breiten Masse erkennt, wird dieses deviante Verhalten durch einen Risikoaufschlag sanktioniert. Gegenmaßnahmen gibt es, aber die sind teuer. Man muss diese Modelle auditieren und auf bekannte Mängel überprüfen. Wir machen das bei der Statik von Brücken, Schienen und anderer Infrastruktur so, bei der digitalen Infrastruktur müssen wohl noch einige Kinder in den Brunnen fallen, bevor hier gehandelt wird.
Gehen wir davon aus, dass sich KI-Systeme in naher Zukunft hinsichtlich der Qualität (Interaktion/Ausgabe) stark verbessern werden. Welchen Nutzen und welche Gefahren sehen Sie dabei?
Ich bin kein Wahrsager. Ich gehe noch nicht einmal mit der Grundannahme konform, dass «KI»-Systeme sich stark verbessern werden. Die sind bereits gut. Wir nutzen ohne viel nachzudenken Textverbesserung und Spracherkennung am Telefon, die ohne «KI» nicht denkbar wären. Gedankenlose Nutzung von Technologie ist nichts, was diese Technologien aufhalten könnte. Die Gefahr besteht, dass diese Technologien funktionieren, aber dabei nicht unsere Stärken, sondern unsere Schwächen und Vorurteile reproduzieren. Nur eben viel schneller und weniger offensichtlich. Hier hilft nur, kritisch zu bleiben und sich selbst Wissen anzueignen, sei es als Bürger oder sei es als Staat. Wer das nicht macht, kann leicht unter die Räder geraten.
Welche Massnahmen sind aus Ihrer Sicht notwendig, um die Medienkompetenz der Menschen in Bezug auf KI-Systeme zu stärken?
Lesen. Sich bilden. Fragen. Verstehen. Es gibt keine Abkürzung auf dem Weg zu Erkenntnis. Nicht früher, nicht heute. KI ist nur eines von vielen Themen mit dem Potenzial, es gigantisch misszuverstehen. Da gibt es noch ganz andere Brocken, die auf uns lauern.
Wie hat KI die Berufslandschaft verändert und welche weiteren Veränderungen stehen junge Menschen in zehn Jahren im Bereich der Berufswahl bevor.
Die Berufslandschaft befindet sich seit Jahren im Umbruch. Einer der größten Treiber ist der demografische Wandel, ein anderer sind Technologien. Was die zehn Jahre angeht: Menschen werden sich anpassen, Berufe werden Schwerpunktverlagerungen erleben, aber der Wert einer guten handwerklichen oder universitären Ausbildung wird bleiben.
Zum Schluss: Glauben Sie, dass es eines Tages eine KI geben wird, die die intellektuellen Fertigkeiten eines Menschen hat oder diese sogar übertrifft (sog. starke KI)?
Es wäre unseriös, auf diese Frage mit ja oder nein zu antworten. Ich halte es jedoch für wahrscheinlich, dass es uns mit unseren bestehenden kognitiven und motorischen Fähigkeiten gelingen wird, menschliches Leben auf dieser Erde überflüssig zu machen, weit bevor eine von uns entwickelte General Artificial Intelligence die Macht übernimmt und uns -je nach literarischer Präferenz- zu Sklaven degradiert oder kurzerhand auslöscht.