Wie künstlich darf Intelligenz sein?
Wenn Intelligenz sich verselbstständigt, hört sie auf, natürlich zu sein, und wird künstlich. Vor einigen Jahrzehnten waren Computer noch halbwegs intelligente, grün phosphoreszierende Bildschirme. Heute sind sie in der Lage, Millionen von Operationen pro Sekunde auszuführen – und was für manche Menschen beunruhigend ist: Sie beginnen, selbst zu denken.
Künstliche Intelligenz ist in fast allen Handlungen unseres täglichen Lebens präsent: Wenn wir telefonieren, unseren Kontostand überprüfen oder ein Taxi bestellen, handelt es sich zumeist um Maschinen, die zwar bestens darauf trainiert sind, ein brauchbares Gespräch mit uns zu führen, aber eben doch «nur» Maschinen sind. Ausserdem bringen wir ihnen ständig selbst etwas bei. Wenn Sie sich zum Beispiel bei Ihrem Google-Konto anmelden und ein Captcha erhalten, um die Anzahl der Ampeln auf dem Bild zu bestimmen, sagt Ihnen die Maschine nur, wo Sie sich befinden, damit sie aus Ihren Antworten lernen und sie in verschiedenen Applikationen anwenden kann.
Chat-Papagei?
Da Maschinen immer leistungsfähiger und stillschweigend in wichtige Entscheidungsprozesse integriert werden, müssen wir unbedingt verstehen, wie sie funktionieren, welche Auswirkungen sie auf unser Leben haben und wie wir sie regulieren sollten, anstatt ihnen einfach blind zu vertrauen. Unsere Zukunft als Gesellschaft hängt davon ab, egal was ChatGPT sagt, ein sogenannter «Generative Pre-trained Transformer» (vortrainierter, generativer Transformator).
Vereinfacht erklärt, handelt es sich um ein künstliches neuronales Netz, das sehr viel Text «gelesen» hat und über ein Chatfenster mit Menschen interagieren kann. Was man beim ChatGPT «Schreiben» nennt, ist ein statistischer Prozess, der mit Wahrscheinlichkeiten operiert. Der Textgenerator setzt eine unvollständige Wortfolge – ein «prompt» – mit einem neuen Wort fort. Er findet dieses Wort aufgrund eines Trainings. Er durchsucht eine Textmenge und lernt, welche Wörter häufig in einem bestimmten Zusammenhang vorkommen. Das System generiert aus Wahrscheinlichkeiten so etwas wie einen «Sinn», plappert mutmasslich Zusammenhängendes wie ein Papagei nach.
Wenn ein Papagei Ihnen also raten würde, eine Dosis Arsen zu nehmen, um Ihren Husten zu lindern, würden Sie seiner Empfehlung folgen? Wahrscheinlich nicht.
KI in Entscheidungsprozessen
So menschlich und überzeugend der Vogel auch klingen mag, Sie wissen, dass es sich nur um ein Tier handelt, das die menschliche Sprache perfekt nachahmt, aber nicht versteht, was es sagt. Ausserdem wissen Sie vermutlich, dass Arsen hochgiftig ist, was Sie an dem Rat zweifeln lässt.
Ersetzen wir jedoch den Vogel durch Systeme der künstlichen Intelligenz (KI), wird die Situation etwas komplizierter. Menschen neigen dazu, Dingen zu vertrauen, die so sprechen wie wir. Grosse Sprachmodelle brechen die Vermutung der Wahrhaftigkeit auf, die wir früher kohärenten Äusserungen zuschrieben, so wie es das Internet mit dem Druck oder die Druckerpresse mit der Heiligen Schrift taten. Obwohl diese grossen Sprachmodelle lange Zeit mit Papageien verglichen wurden, weil sie nicht verstehen konnten, was sie sagten, scheint es für den Menschen immer schwieriger zu werden, die Kontrolle darüber zu behalten. Neben den sprechenden Algorithmen gibt es unzählige Beispiele für Systeme, die bereits in Entscheidungsprozessen aller Art eingesetzt werden. Wir entdecken ihre Schwächen und Gefahren erst, wenn Skandale über ihre ungerechten oder diskriminierenden Entscheidungen aufkommen.
Der Einsatz künstlicher Intelligenz zur Erfassung der Nummernschilder von Autos auf einer Strasse ist nicht dasselbe wie die Entscheidung, ob ein mutmasslicher Straftäter für eine Bewährungsstrafe infrage kommt. KI automatisiert schon seit Jahrzehnten Aufgaben. Das Problem ist, dass sie jetzt beginnt, Entscheidungen zu treffen – das birgt ein grosses Risiko.
Aus diesem Grund hat zum Beispiel der Ersatz von Radiologen durch Algorithmen nicht stattgefunden: Algorithmen sind sehr gut und sehr schnell, aber sie können sich auch irren. Der medizinische Sektor mag vorsichtiger sein, wenn es darum geht, sich auf KI-Entscheidungen zu verlassen, aber Algorithmen können unsere sexuelle Orientierung, unsere Weltanschauung und unseren Gesundheitszustand ableiten, ohne dass wir uns dessen bewusst sind. Sie entscheiden auch, welche Produkte oder Nachrichten uns gezeigt werden, ob wir eingestellt, entlassen oder befördert werden, ob wir einen Kredit oder eine Versicherung erhalten und vieles mehr.
Fragen drängen sich auf
Wie sieht die Zukunft einer Technologie aus, deren Vormarsch so unaufhaltsam und wahllos ist? Werden wir ein Jahr 2030 erleben, in dem undurchsichtige, hyperrealistisch anmutende algorithmische Entscheidungen, die auf die Agenda von drei oder vier Unternehmen zugeschnitten sind, jeden Aspekt unseres Lebens beherrschen? In diesem Zusammenhang ist es erforderlich, dass wir bei der KI dieselben drei Schranken anwenden, die wir auch bei einer hypothetischen Beratung durch Papageien anwenden würden: Ethik, Vernunft und Rechtmässigkeit.
So sehr es auch nachweislich überlegene Algorithmen für ganz bestimmte Aufgaben wie Schach gibt, so kompliziert wird es in der realen Welt mit ihrem Kontext und den unterschiedlichen Interpretationen, die von der Kultur, der Ethik und der besonderen Situation jedes Einzelnen und der Gesellschaft abhängen. Die Entscheidungsfindung kann automatisiert werden, die Frage ist nur, ob sie es sein sollte. Es ist ein völliger Irrtum, KI mit der Annahme zu betrauen, dass sie bessere Entscheidungen treffen wird als Menschen. Das Modell weiss schliesslich nur, was wir ihm übertragen.
Die Gefahren der heute bereits existierenden Systeme liegen in ihren Voreingenommenheiten, in ihrer mangelnden Transparenz, in unserer begrenzten Fähigkeit, sie zu verstehen und zu hinterfragen, und in dem langsamen Tempo, mit dem ernsthafte regulatorische und ethische Debatten voranschreiten. Das sollte uns Anlass sein, uns Gedanken über eine bevorstehende Zukunft zu machen, die bis vor Kurzem nur in Orwells Romanen oder in Ländern möglich war, in denen Freiheit und Transparenz vermisst werden. Entweder kriegen wir als Gesellschaft die Kurve oder eines Tages, in nicht allzu ferner Zukunft, wird uns eine KI sagen, dass wir Arsen gegen Husten einnehmen sollen, und niemand wird das infrage stellen können.
Innovation und KI
Die Kraft der Innovation ist, so Eric Schmidt, «die Fähigkeit, neue Technologien zu erfinden, zu übernehmen und anzupassen». Schmidt, einer der ersten CEOs von Google, nennt künstliche Intelligenz, Genmanipulation und Quantencomputer als die entscheidenden Bereiche, welche die Zukunft prägen werden. Und es sei alles andere als klar, dass die USA und ihre Verbündeten ihre Hegemonie aufrechterhalten werden. «Wenn die Notwendigkeit die Mutter der Erfindung ist, dann ist der Krieg die Hebamme der Innovation», sagte Schmidt neulich nach einem Besuch in der ukrainischen Hauptstadt Kiew.
Der Technologie-Guru amtet unter anderem als Berater in Fragen der amerikanischen Wirtschaft und nationalen Sicherheit. Sein neuestes Buch «The Age of AI» hat er gemeinsam mit dem früheren amerikanischen Aussenminister Henry Kissinger und demMIT-Professor Daniel Huttenlocher verfasst. Darin beschreiben die Autoren ihre Sicht auf das neue Zeitalter der KI. Lautete das Diktum der Aufklärung «Sapere aude» («Habe Mut, dich deines eigenen Verstandes zu bedienen»), gibt es nun Softwareagenten, die – wie etwa der Google-Algorithmus – Informationen filtern und vorsortieren. Diese Maschinen operieren nicht nach Massgabe menschlicher Vernunft, sondern nach einer rein mathematischen, einprogrammierten Logik. Das habe laut dem Autorentrio dramatische Folgen: «KI wird unsere Vorstellung von dem, was wir wissen, woher wir etwas wissen und sogar von dem, was überhaupt erkennbar ist, tiefgreifend verändern.»