KI ÜBERNIMMT DIE WELTHERRSCHAFT...wirklich?
von Michael Schimpke
Zur Zeit ist KI echtes Dauerthema. Sei es, dass die Arbeitsplätze von jungen Leuten von KI-Agenten übernommen werden. Sei es, dass die Aktienkurse von KI-Firmen durch die Decke gegangen sind. Oder man stößt auf Schätzungen, wann KI die „Singularität“ erreicht – also den Punkt echter Intelligenz, und zwar einer Intelligenz, die jene von uns Menschen in den Schatten stellt.
Und wie sieht es bei dir aus? Wie oft nutzt du KI? Lässt du deine Referate und Powerpoint-Präsis von der KI schreiben? Hast du deinem KI-Agenten einen Spitznamen gegeben wie zum Beispiel „Chatty“? (ich bevorzuge Gemini, das ist ein sperriger Name, und da liegt der Spitzname „Jimmy“ nahe). Findest du deinen Chatty sympathisch oder fehlt er dir gar, wenn der Akku des Handys leer ist?
Beruflich wende ich KI ab und zu an. Zum Beispiel hatte mich ein Weiterbildungsinstitut nach einem Konzept für ein Führungskräfte-Entwicklungsprogramm gefragt. Dazu muss man wissen, dass Führung als Thema very, very big ist. Meistens werden einzelne Aspekte verlangt und trainiert: Kommunikation, Rhetorik, Teamentwicklung, Persönlichkeitsentwicklung, Agiles Arbeiten, Zeitmanagement…
Und so hatte ich auf meiner Festplatte jede Menge Dateien, Seminarleitfäden, Hintergrundinfos und vieles mehr und habe zum Anliegen des Kunden eine Stichwortsammlung zusammengetragen. Wochenlang starrte ich auf diese Sammlung…und dann befragte ich endlich Jimmy: „Mach daraus ein Curriculum mit fünf zweitägigen Workshops. Und voilà, 30 Sekunden später hatte ich ein äußerst überzeugendes Resultat. Und Jimmy bot zusätzlich an: Darf es eine Powerpoint sein? Oder ein Werbeflyer? Für welche Zielgruppe: Banker, Sozialer Bereich, Ingenieure? Wow, das war echt cool. Ich überlegte und dachte mir “Okay, fünf Workshops zahlt der Kunde nicht, wie wäre es mit drei?“ Für Jimmy natürlich kein Problem. Das Ergebnis habe ich dann redigiert und an den Auftraggeber weitergereicht und der war schwer begeistert.
Also – KI ist sehr gut geeignet für die Strukturierung von (möglichst eigenen) Ideen und für eine präsentable Aufbereitung.
Anderes Beispiel: Im Rhetorikseminar bat ich Jimmy um eine Stegreifrede zum Thema „Tempolimit auf der Autobahn“. Und Jimmy sprach, verstärkt mit einem Bluetooth-Lautsprecher. Das ist hervorragend als Eisbrecher geeignet, wenn die Leute sich nicht trauen, als erste eine Übung zu machen. Außerdem vermerken dann die Teilnehmenden im Feedbackbogen: Trainer nutzt moderne Didaktik 😉
Du hast natürlich bemerkt, dass die Bilder, mit denen ich meine Newsletter beginne, ebenfalls von der KI erstellt sind. Inspiriert von einem passenden Titel, der kurz, knackig, provokant sein soll. Den Titel denke ich mir selbst aus mit dem sinistren Hintergedanken "Die Leute sollen den NL öffnen und lesen". Den NL schreibe und formuliere ich selbstverständlich persönlich. Weil der Text origineller wird. Und weil es mir Spaß macht!
Das sind jetzt einige positive Beispiele. Sicher fallen dir auch einige aus deinem Leben ein.
Wieso dann der Titel dieses Textes? Nun, das führt uns jetzt zum Buch von Katharina Zweig: Weiß die KI, dass sie nichts weiß?
Dieses Buch bietet eine sehr gut lesbare Erläuterung des wissenschaftlichen Hintergrunds von KI, ihren Möglichkeiten und ihren Grenzen. Überaus pragmatisch und humorvoll geschrieben. Zweig ist Professorin für „Sozioinformatik“, die einzige in Deutschland, denn das Fach hat sie selbst begründet. Sie ist in den Medien sehr präsent, einfach mal googeln.
Durch dieses Buch habe ich einiges Neues über KI gelernt und sehe die Sache jetzt nüchterner als vorher. Wie wir wissen, neigt KI zum „Halluzinieren“, auch wenn das allmählich besser wird. Zweig bevorzugt den Begriff der Konfabulation. Konfabulieren kommt bei bestimmten Alkohol-Krankheiten vor und bedeutet so viel wie „Menschen überspielen ihr Nichtwissen mit Schwafeln" Sie glauben übrigens ihren eigenen Schwafeleien, ähnlich wie bei einer Demenz. Die Betroffenen haben kein Gefühl für den Unterschied zwischen Wahrheit und Lüge. Die KI auch nicht.
Als Beleg für Konfabulieren hier ein Dialog, den ich beim Schreiben dieses Textes mit ChatGPT führte.
Ich: Wie heißt die Mutter von Otto Sander?
ChaGPT: Die Mutter von Otto Sander heißt Käthe Sander. Otto Sander war ein bekannter deutscher Schauspieler, unter anderem bekannt für seine markante Stimme und Rollen in Filmen wie „Das Boot“ und „Der Himmel über Berlin“.
Ich: Heißt die Mutter nicht Marianne Eleonore?
ChatGPT: **Ja — die Mutter von Otto Sander heißt tatsächlich ** Marianne Eleonore, geb. König. Laut biographischen Angaben wurde Otto Sander als Sohn seines Vaters (Otto Albert Wilhelm Gustav Sander) und seiner Mutter Marianne Eleonore Sander, geb. König, in Hannover geboren und wuchs mit seinen Geschwistern auf. (Ich hatte zuvor fälschlicherweise Monika Hansen genannt — sie war Sanders Ehefrau, nicht seine Mutter. Monika Hansen war Schauspielerin und mit ihm verheiratet, aber nicht seine biologische Mutter. )
Ich: Du hattest doch Käthe Sander genannt
ChatGPT: Genau – das war mein Fehler. 🙈Ich hatte zuvor fälschlicherweise Käthe Sander als Mutter von Otto Sander genannt. Richtig ist aber: seine Mutter hieß Marianne Eleonore, geb. König. Käthe Sander gibt es in diesem Zusammenhang nicht; ich habe die Namen verwechselt. Danke, dass du nachgehakt hast!
So, das war unser Dialog. Die Mama von Otto Sander habe ich zuvor in Wikipedia recherchiert und wollte mal die Kompetenz der KI checken.
Mein Kommentar dazu: Chatty – zero points! Jimmy hat es übrigens gewusst!
Das Prinzip von ChatGPT und Co beruht auf den Large Language Models. Vereinfacht ausgedrückt berechnet die Maschine Wahrscheinlichkeiten, welches Wort in einem Satz bzw. in einem Text folgen könnte. Sie ist dafür an existierenden Texten trainiert– Literatur, Presse, Beschreibungen aus aller Welt. Übrigens auch bei Fragen wie "Wieviel ist drei mal drei?" Dafür gibt es genügend korrekte Anworten im Netz, die Maschine muss das nicht berechnen. Für die Maschine ist die Häufigkeit und der Kontext der Nutzung von Wörtern entscheidend. Und das funktioniert ja auch meistens erstaunlich gut. Was ist denn dann der Unterschied zur menschlichen Informationsverarbeitung?
Wir Menschen haben Sinnesorgane und einen Körper. Wort habe für uns einen konkreten Bezug zur Welt und einen Nutzen. Denken wir an „Mama“, „Ball“, „heiß“ bei kleinen Kindern. Kindern lernen ein Wort und dieses Wort hat eine praktische Bedeutung. Und manchmal tut es weh!
Maschinen dagegen reihen Worte aneinander wie plappernde Papageien. Die Worte haben für die Maschine keinerlei Bedeutung. Die Maschine spürt keinen Schmerz, keine Scham, sie wird nicht bei einer falschen Antwort gemobbed. Und wenn ich als User mich vor dem Bildschirm über offensichtlichen Blödsinn aufrege, bleiben Chatty und Jimmy gelassen und freundlich.
Im Laufe der Zeit fangen Kinder an, Kategorien von Begriffen zu bilden wie "Männer, Frauen, Menschen, Verwandte, Fremde, Berufe". Kinder testen dann, ob die Kategorien stimmen – und wir Erwachsene wissen, dass dabei oft skurrile Ergebnisse herauskommen. Menschen lernen also durch Erfahrung und bilden irgendwann den sogenannten gesunden Menschenverstand aus. Wir handeln aufgrund unserer lebenslangen Erfahrungen. Unser Gehirn produziert Bilder und andere Sinneseindrücke, die uns beim Lernen helfen. Die KI tut das alles nicht.
Das, was im Englischen mit Reasoning gemeint ist (logisches Schlussfolgern), klappt bei der KI nur eingeschränkt. Das weiß jeder, der zigmal hintereinander einen Prompt eingegeben hat („ändere dieses und jenes an diesem Bild“ – und dann erscheinen im angeforderten Bild immer wieder dieselben Fehler.)
KI ist nicht in der Welt verwurzelt. Darüber hinaus hat sie keine eigene Intention – sie befolgt einfach die eingegebenen Prompts.
Aber halt – viele von uns fühlen sich doch von Chatty und Jimmy wunderbar verstanden! Das liegt daran, dass die KI paraphrasiert und auf uns eingeht (und das ist ein Vorteil gegenüber vielen Mitmenschen…). Daraus ziehen wir die Schlussfolgerung, dass die Maschine mitfühlt, also menschlich ist. Menschen neigen zur sogenannten Theory of mind. Diese besagt, dass wir ständig mitdenken, was uns jemand sagen will. Wir interpretieren Empathie in die Maschine hinein, weil wir von uns selbst ausgehen. Und das ist ein Irrtum. Richtig problematisch wird die Sache, wenn wir von der KI Werturteile verlangen. Oder Einzelfallentscheidungen, für die es keine Vorbilder in bestehenden Texten gibt.
Wer den Filmklassiker „Terminator“ mit Arnie Schwarzennegger gesehen hat, kennt natürlich Skynet, die boshafte KI mit Weltherrschaftsambitionen. Dazu müsste die KI aber so etwas haben wie eigene Absichten, logisches Denken, das Bewusstsein von Vergänglichkeit und sinnliche Erfahrungen. Soweit sind wir noch nicht, jedenfalls nicht mit den heutigen KI-Modellen. Das ist das Fazit von Katharina Zweig.
Dazu ein abschließender Gedanke. Vielleicht finden sich in der Zukunft andere Wege der Intelligenzentwicklung. Denken wir an die prognostizierten humanoiden Roboter. Wären diese zu sinnlichen Erfahrungen in der Lage? Wer weiß!
Hat Ihnen der Beitrag gefallen?
Er stammt aus meinen Newslettern, die ich ab und zu versende. Falls Sie mehr von mir lesen möchten: unten können Sie sich zu meinem Newsletter anmelden!