This article is also available in:
Wie konkrete Erfahrung die Grundlage für produktive Debatten schafft
Der KI-Spagat: Zwischen Philosophie und Praxis
„Wie schützen wir uns vor der existenziellen Bedrohung durch KI?“, fragt ein Experte auf einer Fachkonferenz. Währenddessen sprechen Millionen Menschen täglich mit ChatGPT und Claude (Therapie und Companionship sind der Top-Use-Case für generative KI 2025). Sie lassen sich Lektionen zum Lernen erstellen und führen Gespräche, für die ihnen sonst niemand zur Verfügung steht. Dieses Nebeneinander von philosophischen Grundsatzdebatten und pragmatischer Alltagsnutzung prägt den aktuellen Umgang mit Künstlicher Intelligenz und erzeugt eine Kluft, die sich kaum überbrücken lässt.
Einerseits steht ein hochfliegender, abstrakter Theoriediskurs, der seit Jahren auf Konferenzbühnen, in Feuilletons und politischen Arenen kreist.
Die immer gleichen existenziellen Fragen dominieren:
- Wird die Menschheit ersetzt?
- Wie verändert sich Arbeit?
- Welche ethischen Grenzen müssen wir ziehen?
Auf der anderen Seite erleben wir, insbesondere seit dem ChatGPT-Moment Ende 2022, eine rasant wachsende praktische Anwendung dieser Technologien im Alltag. Hier experimentieren Menschen ohne besondere technische Kompetenzen pragmatisch mit KI-Tools, integrieren sie in ihre Workflows und tauschen Erfahrungen aus. Laut aktuellen Daten von McKinsey nutzen inzwischen mehr als 53 % der C-Level-Führungskräfte mindestens ein generatives KI-Tool regelmäßig in ihrem Arbeitsalltag (bei aller berechtigten Kritik an solchen Eigenberichtsstudien).
Was beim Versuch, sich in diesem Feld zu orientieren, zunehmend problematisch wird: Der festgefahrene Theoriediskurs behindert aktiv die praxisorientierte Auseinandersetzung, ohne selbst voranzukommen. Das erzeugt Verwirrung und eine hohe Einstiegshürde für Menschen, die sich mit dem Thema konstruktiv auseinandersetzen wollen.
Meine These: Derzeit scheitern wir in beiden Dimensionen. Weder kommt der Theoriediskurs über KI substanziell voran, noch können wir das Potenzial der konkreten praktischen Anwendungen genauso wie die tatsächlichen Probleme, die mit ihnen kommen, vollständig erschließen. Dies gilt, solange sie ständig von theoretischen Fundamentaldiskussionen überlagert werden.
Der Diskurs, der sich im Kreis dreht

Ich beobachte diesen Diskurs seit 2012. Damals hielt ich meinen ersten Vortrag bei der re:publica über die Frage, was passiert, wenn Maschinen auch geistige Arbeit übernehmen. Ausgelöst hatte die Debatte das Buch „Race Against The Machine“ von Brynjolfsson und McAfee. 2015 folgte mein zweiter re:publica-Vortrag, nach „The Second Machine Age“ (2014). Die Fragen waren dieselben: Werden Maschinen uns ersetzen? Wie wollen wir leben, wenn kognitive Arbeit automatisiert wird? Was sich seitdem verändert hat, sind die Beispiele. Die Argumente sind geblieben.
Was mich ernüchtert: Seit 2015 hat sich dieser Diskurs kaum weiterentwickelt. Das Muster lässt sich, mit einer leichten Prise Ironie, in fünf Phasen verdichten:
| Phase | Typische Narrative | Dauer |
|---|---|---|
| Durchbruch | „Verrückt, was das neue Modell kann!“ | 1–2 Wochen |
| Hype | „Die KI-Revolution ist da!“ | 1–3 Monate |
| Warnung | „Existenzielle Risiken für die Menschheit!“ | parallel zum Hype |
| Ernüchterung | „Doch nicht so revolutionär wie gedacht.“ | 3–6 Monate |
| Wiederholung | Neuer Durchbruch, gleiche Muster | endlos |
Alle paar Monate erscheint der gleiche Aufregerartikel, dass Maschinen „jetzt aber wirklich“ alles übernehmen würden. Währenddessen ist in der aktuellen Ausgabe des Economist wieder zu lesen, wie auch für die neuesten KI-Systeme Clickworker im globalen Süden die Drecksarbeit machen. Das ist die wahre Bedeutung von „Human in the loop“.

Der Katalysator: Wie ChatGPT Theorie und Praxis kollidieren ließ
In diesen zyklischen Theoriediskurs platzte Ende 2022 ChatGPT und schuf eine Zäsur. Zum ersten Mal entstand eine breite Überschneidung zwischen dem, was Menschen unter „Künstlicher Intelligenz“ verstanden (geprägt durch Science-Fiction und Popkultur), und dem, was sie tatsächlich selbst anwenden konnten.
Vor diesem Moment hatten die meisten Menschen KI-Systeme nur indirekt erlebt, etwa durch Verkehrssysteme oder Kaufempfehlungen. Nichts davon wurde in der Regel bewusst als KI wahrgenommen.
ChatGPT änderte das fundamental: Plötzlich konnte jeder, der schon einmal eine Textnachricht verschickt hatte, mit einem System interagieren, das zumindest oberflächlich dem Bild entsprach, das viele von „künstlicher Intelligenz“ im Kopf hatten.
Dieser Moment intensivierte nicht nur den abstrakten Theoriediskurs, sondern öffnete erstmals einen breiten Raum für konkrete praktische Anwendungen und Experimente. Das systematische Problem: Diese beiden Ebenen vermischen sich ständig und behindern sich gegenseitig, ohne dass dies den Beteiligten bewusst ist.
Ein typisches Beispiel: Du willst verstehen, wie ein bestimmtes KI-Tool funktioniert, suchst auf YouTube. Aber du findest ausschließlich Videos, die in Superlativen verkünden, dass damit nun aber wirklich die Superintelligenz Realität ist und sich jetzt alles verändern wird. Du kannst ja mal versuchen, auf Basis von YouTube KI-Agenten zu verstehen. Dazwischen die nüchternen Anleitungen zu finden, ist eine Herausforderung.
Oder: Du stellst in einem Forum eine ganz konkrete technische Frage zu einem Sprachmodell und erhältst statt einer Antwort eine emotionale Tirade über Arbeitsplatzvernichtung oder Energieverschwendung.
Diese Vermischung beider Ebenen hat sich mit dem ChatGPT-Moment intensiviert.
Raus aus der Theorie, rein ins Tool: Ein Plädoyer für das Konkrete
Was ich mit diesem Artikel vorschlage, mag kontraintuitiv klingen: Es lohnt sich, den abstrakten Theoriediskurs zunächst bewusst auszublenden und zurückzustellen.
Stattdessen plädiere ich dafür, konkrete praktische Erfahrungen im Detail ernst zu nehmen. Dabei durchaus kritisch zu bleiben und zu hinterfragen, aber auf einer konkreteren Ebene als der philosophischen.
Mini-Methodenkasten: Der praktische Einstieg
- Konkrete Anwendung definieren: Wähle eine überschaubare Aufgabe aus deinem Arbeitsalltag (z. B. Zusammenfassung von Texten, Feedback zu Ideen etc.).
- Systematisches Vergleichen: Teste mindestens zwei unterschiedliche Modelle mit identischen Prompts (z. B. bei ChatGPT oder Gemini).
- Strukturierte Reflexion: Evaluiere nicht nur die Ergebnisse, sondern auch den Prozess, deine Interaktion und notwendige Anpassungen.
Welche konkreten Aufgaben aus deinem Arbeitsalltag könntest du morgen mit den Sprachmodellen testen?
Zwei Beispiele aus meiner eigenen Praxis zeigen, was ich meine.
Was passiert, wenn zwei Modelle denselben Text lesen?
Ich gebe regelmäßig denselben Prompt an verschiedene Sprachmodelle. Neulich bat ich ChatGPT und Claude, einen längeren Fachartikel über Arbeitsmarktprognosen zusammenzufassen. ChatGPT lieferte eine aufgeräumte Zusammenfassung mit klarer Struktur. Claude hob Aspekte hervor, die ChatGPT komplett ignoriert hatte, und stellte eine These des Autors in Frage. Aber beide Modelle addierten Aussagen hinzu, die im Originalartikel gar nicht standen. Nicht falsch im engeren Sinne, aber eben auch nicht das, was der Autor geschrieben hatte.
Aus solchen Vergleichen lerne ich mehr über Sprachmodelle als aus den meisten Konferenzdebatten über „die Zukunft der KI“. Ich sehe in Echtzeit: Diese Systeme erfassen Textmuster und reproduzieren sie plausibel. Aber sie verstehen den Text nicht. Und dieses Nicht-Verstehen zeigt sich bei jedem Modell anders.
Wenn der eigene Rechner ins Schwitzen kommt
Ich lasse KI-Modelle auch lokal auf meinem MacBook laufen, ohne Cloud-Anbindung. Bei zwei, drei Dokumenten funktioniert das passabel. Aber sobald ich versuche, zehn Dokumente gleichzeitig zu analysieren, wird mein Laptop laut und heiß. Die Antwortzeiten steigen von Sekunden auf Minuten. Irgendwann friert die Anwendung ein.
Das klingt banal. Aber dieser Moment hat mein Verständnis für die Infrastruktur-Debatte verändert. Wenn mein Rechner mit zehn Dokumenten kämpft, was bedeutet es dann, wenn Millionen von Anfragen gleichzeitig in Rechenzentren verarbeitet werden? Plötzlich sind die abstrakten Zahlen zum Energieverbrauch von KI-Systemen kein Streitpunkt auf einer Konferenz mehr, sondern eine körperlich erfahrbare Realität. Mein Lüfter hat mir mehr über Nachhaltigkeit beigebracht als die meisten Vorträge zum Thema.
Diese Art von konkreten Erfahrungen erzeugt eine Qualität von Reflexion, die im Theoriediskurs fehlt. Wer noch nie selbst mit einem Sprachmodell gearbeitet hat, dem fehlt schlicht die Grundlage für eine differenzierte Diskussion darüber.
Zurück zur Theorie, mit anderen Augen
Max Read bringt es auf den Punkt:
„The more people understand how LLMs work from practical experience, the more they can recognize A.I. as an impressive but flawed technology, rather than as some inevitable and unchallengeable godhead.“
Genau das beobachte ich: Wer regelmäßig mit KI-Systemen arbeitet, entwickelt ein Gespür für deren spezifische und konsistente Schwächen. Die Maschine wird vom Mysterium zum Werkzeug. Und erst als Werkzeug lässt sie sich sinnvoll bewerten.
Für mich hat sich durch die praktische Arbeit eine Frage verändert, die ich seit 2012 mit mir herumtrage. Früher fragte ich: „Wird KI menschliche Arbeit ersetzen?“ Heute frage ich: „Welche Teile meiner Arbeit laufen mit KI besser, und wo wird das Ergebnis schlechter?“ Das ist eine viel nützlichere Frage. Sie führt zu konkreten Antworten statt zu Endlosdebatten.
Manchmal fühlt es sich an, als könnte man jeden neuen Artikel über Künstliche Intelligenz mit einem Sprachmodell generieren: Die Kernargumente sind immer dieselben, nur leicht angepasst und mit anderen Beispielen illustriert. So kommen wir nicht weiter. Die wirklich interessanten Fragen entstehen dort, wo Menschen aufhören zu spekulieren und anfangen, mit den Systemen zu arbeiten. Was dabei herauskommt, ist keine unkritische Begeisterung. Es ist ein nüchternerer, präziserer Blick auf eine Technologie, die beeindruckend und fehlerhaft zugleich ist.
