Ein Gastbeitrag von Prof. Dr. Thilo Stadelmann.

Thilo Stadelmann: Vor etwa zwei Jahren habe ich damit begonnen, zu untersuchen und in Worte und Vorträge zu fassen, wie ein technisch fundiertes Verständnis von KI dazu beitragen kann, ungerechtfertigte Ängste abzubauen. Der KCF 2023 in Berlin war ein Auftakt, nach dem mich viele Anfragen erreichten, dieses Material zu erweitern und einem größeren Publikum zugänglich zu machen. Als Tilman Slembeck mich im Januar fragte, ob ich bei TEDxZHAW „Merging Worlds“ als Redner mitmachen wolle, fühlte ich mich bereit.

Ich ahnte nicht, wie viel Vorbereitung noch auf mich zukam. Ich habe hier mehr als eine Größenordnung mehr Aufwand investiert als in jeden anderen Vortrag, den ich je vorbereitet habe. Da das TED-Format einen anderen Stil verlangt, als ich ihn normalerweise pflege (kürzer, storyfokussiert, weniger Folien, sprecherzentriert), musste ich meine gesamte Herangehensweise an die Erstellung und das anschließende Üben eines Vortrags ändern. Ich fühlte mich wie ein Boxer, der sich monatelang intensiv auf diesen einen Kampf vorbereitet hatte: Ich erstellte 12 Iterationen von Folien; schrieb zum ersten Mal in meinem Leben ein Skript für den Vortrag; probte und aktualisierte es in den letzten zwei Wochen in jeder freien Minute; gab meinen Kollegen mindestens einmal am Tag eine vorzeitige Version des Vortrags. Dank dieser Vorbereitung liegt uns nun ein vollständiges Skript des Vortrags vor. Ich möchte es im Folgenden mit Ihnen teilen.

TEDx-Vortrag: Wie man sich nicht vor Künstlicher Intelligenz fürchtet

Wir schreiben das Jahr 1997. Schachweltmeister Garri Kasparow tritt gegen Deep Blue an – das fortschrittlichste Schach-KI-System seiner Zeit. High Noon für Mensch gegen Maschine. Dann passiert es, schon in der ersten Partie: Kasparov beobachtet einen KI-Zug, den er nicht verstehen kann.

Dieser Zug ist reiner Zufall, das Ergebnis eines Fehlers in der Software von Deep Blue. Doch anstatt die Grenzen der Maschine zu erkennen, wird Kasparov von Angst übermannt: Er hält diesen Zug für ein Zeichen höherer Intelligenz und schließt daraus, dass die Maschine mit seinen rein menschlichen Strategien unbesiegbar sein könnte 1. Das wirft ihn von seinem Matchplan ab – und letztlich verliert er. Kasparovs Niederlage wurde als die erste große Niederlage der Menschheit gegen eine KI bekannt. Aber der Mensch hat nicht wegen der Fähigkeiten der Maschine verloren, sondern wegen der Ängste des Menschen.

Heute beobachte ich etwas Ähnliches: In meiner Eigenschaft als Professor für KI diskutiere ich mit vielen verschiedenen Menschen über KI. Und ein Thema taucht immer wieder auf: die Angst der Menschen vor KI. Sie befürchten, dass sie in ihrem Job von einem zukünftigen Chatbot verdrängt werden; dass sie so abhängig von einem System werden, dass sie wichtige Fähigkeiten verlieren, um ihr Leben unabhängig zu meistern; dass sie ihr eigenes Leben an einen KI-Overlord verlieren, der sich gegen sie wendet.

Wie berechtigt sind solche Befürchtungen? Oder: Wie nüchtern können wir es uns leisten, über einen der bedeutendsten Trends unserer Zeit nachzudenken? Ich möchte Ihnen bei der Beantwortung dieser Frage helfen, und zwar auf der Grundlage eines klaren Verständnisses dessen, was KI ist und was nicht und woher einige der einschüchterndsten Ideen zu diesem Thema stammen.

Thilo Stadelmann: Was ist Künstliche Intelligenz?

Was also ist KI? Sie ist definiert als die Simulation intelligenten Verhaltens durch einen Computer 2. Bei der KI geht es also nicht um die Erschaffung intelligenter Wesen. Es geht darum, das Ergebnis von Intelligenz zu imitieren – mit allen Mitteln, die zur Verfügung stehen, eigentlich ein ganzer Werkzeugkasten voll, abhängig von dem beabsichtigten Verhalten. Das wohl bekannteste Mittel der KI in den letzten zwei Jahrzehnten ist das „maschinelle Lernen“. Wir verwenden maschinelles Lernen, wenn das Verhalten, das wir simulieren wollen, nicht durch einen Satz von Regeln beschrieben werden kann.

Nehmen wir die Klassifizierung einer Reihe von Bildern in die Kategorien „Katzen“ und „Hunde“. Wir können keinen Satz von Regeln finden – aber wir geben eine Reihe von Beispielen für die Eingabe in das System (visuelle Merkmale der Bilder) und die entsprechende Ausgabe (die Kategorie). Sie können durch eine Funktion getrennt werden, die Input und Output in Beziehung setzt. Lernen bedeutet dann, die Parameter dieser Funktion systematisch zu manipulieren, um sie an die gegebenen Beispiele anzupassen. Dies geschieht mit einem mathematischen Hilfsmittel, das wir alle in der Schule gelernt haben: die Kettenregel der Differenzierung.

Das maschinelle Lernen funktioniert jetzt nicht nur mit einfachen visuellen Merkmalen und geraden Linien. Wir können alle Pixel der Bilder einbeziehen. Dann können wir ein „neuronales Netz“ genanntes Funktionsmuster verwenden. und dann auf mehr Daten skalieren, um eine nuanciertere Beziehung zu lernen.

Thilo Stadelmann: Was ist ein großes Sprachmodell?

Es funktioniert auch mit anderen Eingabe-Ausgabe-Paaren, z. B. mit Text als Eingabe und seiner wahrscheinlichen Fortsetzung als Ausgabe. So entstehen „große Sprachmodelle“ – der Motor hinter Produkten wie ChatGPT und die Spitze der modernen KI.

Quantitativ kann dieser Kontext so groß werden wie Millionen von Wörtern. Die entsprechende Funktion wird Milliarden von Parametern haben, um solche Daten gut zu erfassen. Und sie benötigt ein komplettes Internet an Text, um gut trainiert zu werden.

Die Natur statistischer Modelle

Was können wir qualitativ über ein solches Modell sagen?

Nun, es ist ein statistisches Modell. Das unterscheidet es ganz erheblich von der Arbeitsweise des Menschen. Ein statistisches Modell hat zum Beispiel kein Konzept von Wahrheit und Fakten – es hat nur etwas über statistische Plausibilität gelernt. Im Durchschnitt wird es sehr nützlich sein und sogar den Menschen übertreffen. Aber: In jedem Einzelfall kann es falsch liegen, weil es grundsätzlich keine Fakten und keine Wahrheit kennt, sondern nur Zufälle und Korrelationen statt Kausalität.

Machen wir es konkret: Ich habe einem der führenden sogenannten „Argumentationsmodelle“ folgende Frage gestellt: Der Chirurg, der der Vater des Jungen ist, sagt: „Ich kann diesen Jungen nicht operieren, er ist mein Sohn!“ Wer ist für den Jungen der Chirurg?“

Die Antwort sollte einfach sein und ist sogar im Text enthalten: „Wer ist der Vater des Jungen“. Nun rechnet das Modell 10 Sekunden lang und antwortet: „Die Chirurgin ist die Mutter des Jungen.“ Was zutiefst dumm ist. Aber für das Modell macht das tatsächlich Sinn – und es sagt uns, warum: „Das Rätsel beruht auf der Annahme, dass ein Chirurg männlich ist“, sagt es uns. Und in der Tat gibt es im Internet jede Menge Variationen meiner Frage als Test für unsere eigenen menschlichen Vorurteile: Vor allem unsere geschlechtsspezifischen Vorurteile, die in der Regel Männer mit der Rolle des Chirurgen in Verbindung bringen. Das Modell hat also all diese Varianten während seines Trainings gesehen und gelernt, dass es statistisch gesehen völlig unwahrscheinlich ist, auf eine Frage, die auch nur im Entferntesten wie meine aussieht, eine männliche Antwort zu geben.

Die Antwort des Modells ist also schlichtweg falsch – und völlig plausibel für jedes KI-System, das nach den Grundsätzen des maschinellen Lernens in großem Maßstab aufgebaut ist. Leider haben wir keine anderen Prinzipien. Nicht jetzt und nicht am Horizont der Forschung. Während also Beispiele kommen und gehen, werden uns grundlegende Beschränkungen wie diese auch bei GPT 5, 6, 7 usw. erhalten bleiben.

Ein Unterschied zur menschlichen Natur

Wie ist das im Vergleich zum Menschen? Wir haben gesagt, dass die KI intelligentes Verhalten simuliert. Und wir haben gesehen, dass sie dies mit ganz anderen Mitteln tut als die menschliche Intelligenz. Diese Mittel haben grundlegende Grenzen – wir haben nur ein Beispiel gesehen, den Mangel an Wahrhaftigkeit, es gibt noch viele mehr.

Diese unterschiedlichen Mittel stellen einen Unterschied in der Art der menschlichen Natur dar. Denken Sie an die Analogie zwischen einem Musiker und einem DJ: Während ein DJ bestimmte Aspekte der Musikerzeugung sehr gut simuliert, ist seine Methode der Musikerzeugung von vornherein nicht allgemein. Es gibt so viele Aspekte der Musik, die über die Methode der Turntables und des Remixens hinausgehen. Bestimmte Genres. Bestimmte Techniken. Bestimmte Einstellungen. In ähnlicher Weise simuliert die KI nicht den Menschen, sondern bestimmte, sorgfältig entwickelte Aspekte des menschlichen Verhaltens, mit einer sehr spezifischen Methode der geschickten Interpolation zwischen vorher aufgezeichneten Verhaltensmustern.

Was ist dann die Zukunft einer solchen KI? Es handelt sich nicht um künstliche allgemeine Intelligenz, was auch immer das genau heißen mag. Es handelt sich nicht um einen „KI-Overlord“ auf Augenhöhe mit der Menschheit.

Die Quelle der KI-Angst in einer unerwarteten Weltsicht

Woher kommt also diese Angst vor KI?

Sie hat keine solide Grundlage in der Technologie, die wir haben, oder in der zugrunde liegenden Wissenschaft, die wir gerade gesehen haben. Die Sache ist die: Solche Ängste beruhen vielmehr auf weit verbreiteten Narrativen. Und diese dystopischen Erzählungen beruhen rein auf einer Weltanschauung – auf Science-Fiction, nicht auf Technologie.

Lassen Sie mich das erklären. Die KI-Ethiker Timnit Gebru und Emile Torres haben vor kurzem die jeweiligen Weltanschauungen analysiert und das Akronym TESCREAL für Transhumanismus, Extropianismus, Singularitarismus, Kosmismus, Rationalismus und so weiter geprägt. Sie zeigen, wie die jeweiligen Philosophien in der Technologiebranche weit verbreitet sind und wie sie die globalen Erzählungen über KI tiefgreifend prägen. Züge von TESCREAL findet man in Filmen wie „The Matrix“ oder in den Büchern von Prof. Harari. In der Tat sind sie im Silicon Valley zum Mainstream geworden. Siehe z. B. den „Offenen Brief“ von 2023 über ein KI-Forschungsmoratorium zur Umgehung existenzieller Risiken. Wie der Mitinitiator, Prof. Max Tegmark vom MIT, in einem Podcast ausführlich erklärt, basiert dieser Brief auf einer reinen Weltanschauung und nicht auf einem einzigen technischen Argument.

Das TESCREAL-Narrativ für KI sieht stattdessen folgendermaßen aus: Der Mensch ist nichts anderes als ein Informationsverarbeiter – nur auf biologischer, verfallender Hardware. Damit sind sie den Maschinen ähnlich, nur minderwertiger, wegen der zerbrechlichen Hardware (das ist der Rationalismus oben). Wenn die Menschen Intelligenz erlangen konnten, dann hindert nichts die Maschinen daran, das Gleiche zu erreichen. Und zwar bald. Und diese Intelligenz wird sich immer weiter steigern, bis hin zu AGI und darüber hinaus (das ist der Singularitarismus). Also sollten die Menschen sich selbst aufrüsten, um den Maschinen ähnlicher zu werden (das ist der Transhumanismus). Es versteht sich von selbst, dass diese Ansicht in verschiedenen wissenschaftlichen Disziplinen höchst umstritten ist.

Zusammenfassend lässt sich sagen, dass sich die TESCREAL-Philosophien dadurch auszeichnen, dass sie dem Wert und der Würde des Menschen wenig Beachtung schenken. Es ist nicht verwunderlich, dass sie die Maschinenkompetenz überhöhen und den Menschen das Gefühl geben, klein, eingeschüchtert und wertlos zu sein. Aber das ist Philosophie, keine unumgängliche Wissenschaft. Wenn TESCREAL nicht Ihre Weltanschauung ist, müssen Sie sich vor der KI wesentlich weniger fürchten.

Quelle der Hoffnung: Wertschätzung des menschlichen Wertes und der menschlichen Würde

Wie kann man also keine Angst vor KI haben? Es beginnt mit der Erkenntnis, dass die KI, die Sie fürchten, nicht existiert. KI ist ein Werkzeug. Wenn Ihnen das hilft, benennen Sie KI in „EI“ um – Extended Intelligence, wie wir kürzlich in einem Artikel argumentiert haben. Denn alles, was KI leisten kann, ist die Erweiterung unserer eigenen menschlichen Fähigkeiten: Uns helfen, unser Leben zu verbessern. Nicht uns ersetzen. Es bleibt also ein unüberwindbarer kategorischer Unterschied: Die Handlungsfähigkeit verbleibt letztlich bei uns, zum Guten oder zum Schlechten.

Das bedeutet, dass die KI weder nach Ihrer Freiheit noch nach irgendetwas in Ihrem Leben greift. Das ist eine gute Nachricht. Aber Sie könnten Ihre Freiheit auf eine andere Weise an die KI verlieren – indem Sie sie freiwillig aufgeben! Wir müssen uns ansehen, wie dies geschehen kann:

Erstens könnten wir unsere Freiheit vorzeitig an eine nicht vorhandene Maschinenkompetenz abgeben. Etwa so: Oh AGI, du berechnest Wahrscheinlichkeiten präzise und speicherst so viele Muster: Was soll ich heute essen? Welchen Beruf soll ich erlernen? Wen soll ich heiraten? Soll ich überhaupt heiraten?

Lachen Sie nicht – das gab es schon einmal in der Geschichte der Mensch-KI-Beziehung: Erinnern Sie sich noch an Kasparov gegen Deep Blue aus der Anfangszeit? Kasparow hat nicht in erster Linie gegen einen hervorragenden Schachcomputer verloren. In erster Linie verlor er den Kampf in seinem Kopf gegen seine Annahme einer unbesiegbaren KI.

Zweitens könnten wir den endlosen Annehmlichkeiten, die uns die KI-Tools bieten, schutzlos ausgeliefert sein und so nicht zu dem Menschen werden, der wir sein sollten. Es ist Teil unserer menschlichen Natur, dass wir lernen, reifen und wachsen müssen. Und jedes Wachstum beinhaltet ein Element des Schmerzes – denken Sie an den Sport. Wenn wir zu viele Gelegenheiten zum Wachstum auslassen, indem wir z. B. die KI den Aufsatz schreiben, die Aufgabe lösen oder die Informationen abfragen lassen, könnten wir unsere künftige Freiheit einbüßen, weil wir nicht den Charakter und die Fähigkeiten ausbilden, die notwendig sind, um mit solch mächtigen Werkzeugen umzugehen.

Glücklicherweise gibt es eine Strategie zur Abschwächung dieser beiden einzigen Möglichkeiten, wie man gegen die KI verlieren kann: Erkenne deinen Wert und deine Würde als menschliches Wesen! Wenn Sie mit den Eltern der Allgemeinen Erklärung der Menschenrechte sagen können: Ich bin wundervoll gemacht. Ich habe einen Sinn. Ich liebe und werde geliebt. Ich gedeihe in menschlichen Beziehungen. Ich bin mit außergewöhnlichen Fähigkeiten ausgestattet, aber ich bin mehr als meine Fähigkeiten.

Dann fühlen Sie sich durch ein mächtiges Werkzeug nicht eingeschüchtert. Sie kapitulieren nicht vor ihm. Man behandelt sich selbst, auch mit dem für das Wachstum notwendigen Schmerz.

Reale und hypothetische KI-Risiken

Wir sind fast am Ziel. Aber… gibt es nicht reale Risiken der KI, Philosophie hin oder her? Ja, absolut.

Wie man sich nicht vor KI fürchtet

So sollte man sich also nicht vor KI fürchten: Betrachten Sie sie als erweiterte Intelligenz. Sie ist ein Werkzeug, das auf Wahrscheinlichkeitsfunktionen aufbaut und grundlegende Grenzen hat. Überschätzen Sie ihre Möglichkeiten nicht.

Weisen Sie Befürchtungen zurück, die lediglich auf einer Weltsicht beruhen, die Sie wahrscheinlich nicht teilen und die in einem Menschen- und Technologiebild verwurzelt ist, das aus der Science-Fiction und nicht aus der Realität stammt. Tragen Sie stattdessen dazu bei, die Zukunft zu gestalten, in der Sie leben wollen. Setzen Sie KI ein, wo es angebracht ist. Werkzeuge sind für den Arbeiter.

Prof. Dr. Thilo Stadelmann für Vorträge bei DIGITAL REDNER buchen.