
Ein Essay über das Zeitalter der generativen KI und die Frage, was eigentlich noch im menschlichen Kopf bleiben muss.
Sebastian Büttner
Von Enzyklopädien zu Eingabeaufforderungen
Früher galt Wissen als schwer errungene Errungenschaft. Man las Bücher, führte Debatten, lernte aus Erfahrung. Spätestens mit dem Internet wandelte sich das: Google ersetzte das Lexikon, Wikipedia den Brockhaus. Doch die Revolution war nur ein lauer Sommerwind im Vergleich zu dem Sturm, den die generative Künstliche Intelligenz nun entfacht.
Mit ein paar kurzen Stichwörtern spuckt ChatGPT heute seitenlange Abhandlungen aus, erklärt Kant verständlicher als so mancher Philosophieprofessor und schreibt dazu noch einen fünfzeiligen Haiku über den kategorischen Imperativ. Währenddessen erstellt DALL·E aus einer knappen Beschreibung Ölgemälde, und Google Gemini fasst die Inhalte von zehn wissenschaftlichen Studien in drei Sätzen zusammen. Die Frage liegt auf der Hand: Warum sollten wir noch wissen, wenn die Maschinen es ohnehin für uns tun?
Lernen ohne Notwendigkeit – geht das überhaupt?
nsere Eltern lernten die Hauptstadt von Bolivien in der Schule, wir tippen „Hauptstadt Bolivien?“ in die Suchleiste, und unsere Kinder werden wohl nicht einmal mehr
tippen, sondern einfach eine KI fragen. Doch ein kleines Problem bleibt: Erinnern wir uns noch an das, was wir gestern nachgeschlagen haben?
Das menschliche Gehirn funktioniert nach einem simplen Prinzip: Was oft benutzt wird, bleibt hängen, was nicht gebraucht wird, fällt durch das neuronale Sieb. Wenn
aber alles Wissen jederzeit abrufbar ist, dann brauchen wir es gar nicht mehr aktiv zu speichern – was dazu führt, dass unser eigenes Gedächtnis langsam zum digitalen Zwischenspeicher
verkommt.
Ein Beispiel: Früher musste ein Mathematiker Formeln auswendig lernen, weil sie im entscheidenden Moment nicht einfach in einem Buch nachzuschlagen waren. Heute gibt es Wolfram Alpha und ChatGPT – und morgen wird vielleicht ein KI-Assistent jede Gleichung in Echtzeit vor uns in die Luft projizieren.
Bedeutet das, dass wir gar keine Mathematiker mehr brauchen? Natürlich nicht. Doch es bedeutet, dass sich unser Verständnis von Wissen fundamental verschiebt: Wissen ist nicht mehr das, was wir im Kopf haben, sondern das, was wir abrufen können.
Wenn KI für uns das Denken übernimmt – Wer stellt die Fragen?
Doch nun zur eigentlichen Herausforderung: Die Gefahr ist nicht, dass wir weniger wissen – sondern, dass wir nicht mehr wissen, was wir wissen sollten. Denn KI ist nicht einfach ein Lexikon, sondern eine strukturierende Instanz. Sie entscheidet – basierend auf Algorithmen, die wir oft nicht durchschauen – welches Wissen uns präsentiert wird, in welcher Reihenfolge, mit welcher Gewichtung. Und genau hier lauert das Problem.
- Wer sagt uns, ob die KI das vollständige Bild liefert oder nur das, was ihren Trainingsdaten entspricht?
- Wer garantiert, dass sie keine Verzerrungen (Bias) aufweist oder bewusst Inhalte ausblendet?
- Und vor allem: Was passiert, wenn wir verlernen, die richtigen Fragen zu stellen, weil KI uns die Antworten ohnehin präsentiert?
Wer eine Suchmaschine benutzt, muss eine Frage formulieren. Wer hingegen eine generative KI nutzt, bekommt auf Zuruf eine ganze Welt serviert. Das ist bequem – aber es nimmt uns die Notwendigkeit, selbst über den nächsten Erkenntnisschritt nachzudenken.
Was bewahren wir, was lassen wir los?
Wissen ist eine Ressource, die in gewisser Weisen betriebswirtschaftlichen Prinzipien folgt. Um ums vom Markt zu differenzieren, müssen wir nicht alle Informationen selbst in unseren Lagern verfügbar halten, wir können sie auch an digitale Dienste outsourcen – und sie dann abrufen, wenn wir sie benötigen. Trotzdem gibt es einige Kern-Bereiche, die wir dringend "im Unternehmen" halten sollten:
- Kritisches Denken: Wer Algorithmen die Auswahl von Informationen überlässt, muss umso stärker selbst beurteilen können, was glaubwürdig ist.
- Fragenstellen als Kompetenz: Die Fähigkeit, die richtigen Fragen zu formulieren, wird künftig wichtiger als die Antworten selbst.
-
Grundlegendes Weltwissen: Ja, wir könnten uns auch das Wissen über den Zweiten Weltkrieg von einer KI
zusammenfassen lassen –
aber wollen wir eine Gesellschaft, in der niemand mehr Geschichte selbst durchdrungen hat?
Vielleicht muss unsere Bildungsdebatte bald nicht mehr darum gehen, welches Wissen wir vermitteln, sondern welches Wissen noch im Menschen und nicht in der Cloud gespeichert sein sollte.
Die Maschine denkt wie eine Maschine – wir sollten weiter wie Menschen denken
Das Zeitalter der generativen KI eröffnet uns unglaubliche Möglichkeiten. Aber es konfrontiert uns auch mit der fundamentalen Frage nach dem Wert menschlichen Wissens. Wird die Zukunft eine Welt sein, in der wir nichts mehr lernen müssen, weil alles für uns gespeichert und strukturiert wird? Oder wird sie eine Zukunft sein, in der wir endlich die Freiheit haben, uns auf die wirklich wichtigen Dinge zu konzentrieren – das Denken, das Verstehen, das Verknüpfen von Ideen?
Eins ist sicher: Wenn wir nicht selbst über unser Wissen nachdenken, wird es jemand anderes für uns tun. Und dieser Jemand wird nicht unbedingt ein Mensch sein.
Über den Autor:
Der Autor ist Co-Gründer von Quantum Beyond, einem europäischen Beschleunigungsprogramm für die Digitalisierung von Unternehmen. Unter dem Label Quantum Beyond Infinity liegt der Fokus auf AI-driven Organization Design, datengetriebenen Strategien und der intelligenten Mensch-Maschine-Kollaboration, um Unternehmen zukunftsfähig und wettbewerbsstark für das KI-Zeitalter aufzustellen.