Sonderthema Intelligenz: Ist denken out?

Interview mit KI-Professor Jochen L. Leidner von der Hochschule Coburg

Denkt der Mensch überhaupt noch, wenn er doch das Rechnen, Schreiben, Analysieren mehr und mehr Maschinen überlässt? Oder glaubt er nur noch, fühlt, meint? Ist Denken also out? Der COBURGER hat sich dazu mit Jochen L. Leidner unterhalten, Professor für erklärbare und verantwortungsvolle Künstliche Intelligenz an der Hochschule Coburg.

COBURGER: Im letzten Interview zum Thema „Neugier“ mit dem COBURGER vor drei Jahren haben Sie gesagt: „Man sollte Maschinen nicht zuschreiben, was sie momentan nicht können und vielleicht nie können werden. Letztlich sind Computer Metamaschinen, grenzenlos einsetzbare Werkzeuge, die uns dienen (sollten). Da kann ich die Menschen also beruhigen.“ Hat sich an ihrer Meinung etwas geändert? Oder besteht aus wissenschaftlicher Sicht mittlerweile Grund zu Sorge, immerhin haben führende Köpfe von Techunternehmen ja vor Risiken gewarnt? Wird unser Denken schon fremdgesteuert?

JOCHEN LEIDNER: Zunächst mal vielen Dank, dass Sie diesen Satz aufgreifen – in den Medien heute scheint ja sonst nur Raum für kurze Gedanken, 160 Zeichen oder weniger, und ich hatte ja auch kein TikTok-Video dazu getanzt. Bezüglich der echten Intelligenz oder Terminator-Dystopien kann ich nach wie vor die Menschen beruhigen (einige der warnenden Köpfe möchten vielleicht gerne ihren persönlichen Bekanntheitsgrad erhöhen), aber leider gibt es neue Probleme, bei denen wir Wissenschaftler Alarm schlagen müssen. Maschinen sind nicht intelligent, aber sie können inzwischen Antworten geben, wie einige Menschen Sie auch nicht besser hätten geben können.

Allerdings sind die Prinzipien, wie und warum das funktioniert, andere als die menschlicher Intelligenz. Gegenwärtige Sprachmodelle wie Llama, ChatGPT oder Claude haben einige substanzielle Anteile des Internet repräsentiert, und wurden so konstruiert, dass alles, was aus ihnen hervorkommt – ob wahr oder falsch – gleichsam eloquent und vermeintlich selbstbewusst herüberkommt. Kaum verwunderlich, dass die Nutzer diese Systeme vermenschlichen, das ist aber fatal.

Meine Frau kennt beispielsweise einen krebskranken Mann, der seinem Arzt nur glaubt, wenn das, was er sagt, auch mit dem übereinstimmt, was ChatGPT sagt (sein Arzt weiß davon nichts). Es wäre gut, wenn mehr Menschen verstünden, wie diese Systeme funktionieren, damit sie sie nicht vermenschlichen und über ihre tatsächlichen Fähigkeiten hinaus Zuschreibungen machen. Ich erlebe das  auch in meinem Alltag, nämlich wenn Studierende diese Systeme verwenden, um ihre Arbeiten schreiben zu lassen. Das ist nicht nur ein Fall von Betrug, sondern insbesondere von Selbstbetrug, denn, wenn ich nicht selbst lese, nachdenke, schreibe, überarbeite, sondern von einer Maschine oder von einem anderen Menschen einen Text zu einem Thema erzeugen lasse, dann lerne ich natürlich nichts dabei.

COBURGER: Können Sie das an einem Beispiel erläutern?

JOCHEN LEIDNER: Nehmen Sie einen Taschenrechner (egal ob physisches Gerät oder Software, die ihn nachbildet). Es ist ein nützliches Werkzeug für alle, die viel rechnen müssen, weil Leichtsinnsfehlervermieden werden. Wenn ich aber nie die vier Grundrechenarten gelernt habe, kann ich auch nicht überprüfen, ob die Ausgabe des Taschenrechners stimmt. Muss ich beispielsweise 230 x 10,23 ausrechnen und der Taschenrechner gibt 235290, dann sagt mir meine Rechenintuition, dass das Ergebnis zu groß ist (mal zehn entspricht ja einer Null anhängen) und außerdem sollte keine glatte Zahl herauskommen. Das richtige Ergebnis wäre 2352,90 gewesen, und was vermutlich passiert ist, war, dass ich beim Eingeben der zweiten Zahl das Dezimalkomma nicht fest genug gedrückt hatte. Wer nie von Hand gerechnet hat, hat solch eine Intuition nicht, sondern glaubt eher blind die Ergebnisse. Und beim Taschenrechner kommt fast immer das richtige
heraus, wenn die Eingabe stimmte, was bei den KI-Modellen keinesfalls der Fall ist. Und wie prüfe ich das Ergebnis, wenn mich niemand gewarnt hat? Eine neue Gefahr ist diese: Je mehr die Menschen ihr Denken an die Maschine delegieren, desto mehr werden sie wieder unmündig (im Kantschen Sinne) und steuerbar – durch Konzerne, die zumeist in anderen Ländern sitzen; also definitiv existiert die Gefahr des „fremdgesteuert seins“, die Sie ansprachen, bereits heute im großen Ausmaß.

COBURGER: Unser Sonderthema dieses Mal heißt „Intelligenz – wie denken wir in Zukunft?“ Verändert sich vor dem Hintergrund des Werkzeugs „Künstliche Intelligenz“ das menschliche Denken? Verändert sich das Gehirn?

JOCHEN LEIDNER: Das kritische Denken scheint mir durch aktiven Einsatz des Gehirns geschärft zu werden, insofern wird es geschwächt, wenn es nicht benötigt wird, weil sich die Leute nur passiv von Medien berieseln lassen. Bisher wurden von Bai, Liu und Su (2023) sechs Arten negativer Einflüsse von KI-Sprachmodellen beschrieben:

  • übermäßiges Vertrauen in und Abhängigkeit von KI-Systemen
  • beeinträchtigtes kritisches Denken
  • inakkurate Information
  • oberflächliche Auseinandersetzung mit Themen, die das Langzeitgedächtnis negativ beeinflusst
  • reduzierter menschlicher Umgang
  • Demotivation

Jede dieser Arten wurde bzw. wird derzeit untersucht.

COBURGER: Wenn die KI in Zukunft geistigintellektuell-kreativ-wissenschaftliche und weitere standardisierbare Aufgaben übernimmt, verdummen wir dann? Oder entwickeln wir uns sogar weiter, weil wir uns nicht mehr mit Routine aufhalten müssen?

JOCHEN LEIDNER: Beides – nicht jeder wird mit den Systemen in gleicher Weise umgehen. Wichtig ist nicht, die Technologie nur einseitig zu verteufeln oder anzupreisen, sondern sich im Detail damit vertraut zu machen. Dann gilt es, die Vorteile zu nutzen und zugleich die Einflüsse der Nachteile zu reduzieren.

COBURGER: Die generelle Frage ist, hat das klassische rationale vernunftorientierte faktenbasierte Denken, das Abwägen von Pro und Contra, der Diskurs, überhaupt noch einen Platz, wenn Daten und datenbasierte Entscheidungen nur noch Computersache sind?

JOCHEN LEIDNER: Das Denken wird immer den Platz haben, den wir ihm als Gesellschaft einräumen. Sie machen es ja zu Ihrer Sache – wenn Sie es sich nicht nehmen lassen – oder eben zur Computersache – wenn Sie es outsourcen (gleich ob an die Maschine oder an Zeitungsblätter mit sehr großen Titelbuchstaben). Ob Fakten im Diskurs zählen, hängt auch von der Allgemeinbildung ab. Wir sollten unsere Kinder so erziehen, dass Wissen ein Wert ist, der geschätzt wird.

COBURGER: Sie beschäftigen sich in Coburg am Institut mit KI. Geben Sie uns doch kurz einen Überblick Ihrer Themen derzeit zum Thema Künstliche Intelligenz.

JOCHEN LEIDNER: Mein kleines Team und ich befassen uns mit mehreren Themen:

  • Nachrichten-Bias (wie Propaganda) automatisch zu erkennen und die Computer-Entscheidungen auch sprachlich zu begründen (also „Warum ist dieser Satz keine neutrale Berichterstattung?“). Schulklassen von Coburg bis Selb haben uns bereits besucht, um unser System zu testen.
  • Chatbots, die die Arbeit im Data-Science-Team unterstützen, indem sie Fragen beantworten; besonders hilfreich sind diese für Neueinsteiger, die Fragen haben, wenn Mentoren zum Einarbeiten gerade nicht greifbar sind.
  • Methodologie: Wie setze ich KI-Projekte so um, dass Sie auch die besten Resultate in der Zeit und im Budget erzielen?
  • Modelle, die Texte besser geografisch verstehen können, indem Texte u.a. in ein räumliche Repräsentation abgebildet werden.
  • Modelle zur automatischen Risikoanalyse, die zu Unternehmen, Personen und Themen die Nachrichten überwachen und Risikoprofi le erstellen können.
  • Im Unterricht widme ich mich außerdem dem Thema KI & Ethik.

Die Fragen stellte Wolfram Hegen.