KI-Fachkompetenzschwelle
Zur Kritik des kritischen Denkens
Kritisches Denken ist überbewertet.
Das sage ich als jemand, der gerade ein neues Curriculum für seinen Studiengang schreiben muss. Die Reakkreditierung steht an und in fast jedem Dokument, das ich lese, steht, dass kritisches Denken eine zentrale Zukunftskompetenz ist. Kritisches Denken als Antwort auf Desinformation. Kritisches Denken als Fundament für den Umgang mit KI. Es klingt so vernünftig. So unstrittig. So beruhigend.
Da musste ich an Andreas denken. Ein großer Vortragsraum, Ende des Nachmittags, die Stühle noch warm vom Publikum. Ich hatte eine halbe Stunde darüber geredet, wie KI die Lehre verändern wird. Danach standen wir noch zusammen. „Weißt du”, sagte er, „Kartografen haben jahrhundertelang erfundene Orte in ihre Karten eingebaut. Trap Streets. Wenn jemand die Karte kopierte, konnte man es beweisen.” Er machte eine Pause. „Aber nur, wer das Gebiet kannte, erkannte die Fälschung.”
„Trap Streets” (zu Deutsch: „Papierstraßen”) sind bewusst fälschlich eingezeichnete Straßen oder Orte, die in Wirklichkeit nicht existieren. Ein Wasserzeichen für Landkarten sozusagen. Dieser Satz lässt mich nicht mehr los.
Denn er beschreibt genau das Problem, mit dem das Bildungssystem aktuell konfrontiert ist. „Die Karte ist nicht das Gebiet”, schrieb Alfred Korzybski, der Vater der Allgemeinen Semantik, im Jahr 1933. Er meinte damit, dass unsere Modelle der Wirklichkeit nie die Wirklichkeit selbst sind. Neunzig Jahre später hat dieser Satz eine neue Dringlichkeit erhalten. Wir bringen Studierenden bei, Karten zu lesen. Wir geben ihnen Checklisten, Frameworks und Methodentrainings, also immer ausgefeiltere Werkzeuge, um Informationen zu bewerten. Dabei vergessen wir jedoch etwas Entscheidendes. Ohne Gebietskenntnisse nützt die beste Kartenlesekompetenz nichts. Wer das Terrain nicht kennt, erkennt die Fälschung nicht, egal wie gut die Legende formuliert ist.
Und ich starre auf die offene Zeile in meinem Curriculum-Entwurf mit der Überschrift „AI Literacy” und frage mich, ob ich das sinnvoll finde.
Fünf Schritte und eine unbequeme Einsicht
Warum mich diese Zeile im Curriculum zweifeln lässt? Weil ich selbst genau so ein Kartenlesewerkzeug gebaut habe. Ein Framework namens PRÜFE, fünf Schritte zur Bewertung von KI-Output.
PRÜFE, das steht für Prüfbarkeit, Relevanz, Ursprung, Faktencheck, Ergebnis. Fünf Schritte, mit denen Studierende KI-generierte Inhalte bewerten sollen. Ich habe es in Workshops genutzt und auf meinem Substack veröffentlicht. Lehrende fanden es nützlich. Studierende konnten es anwenden. Es funktionierte.
Zumindest dachte ich das.
Bis ich anfing, genauer hinzuschauen. Was passiert, wenn jemand PRÜFE auf ein Thema anwendet, von dem er nichts versteht? Der Schritt „Faktencheck” setzt voraus, dass ich erkenne, welche Fakten überhaupt überprüfenswert sind. Der Schritt „Relevanz” setzt voraus, dass ich weiß, was in einem Fachgebiet relevant ist und was nicht. Beides braucht Fachwissen. Ich habe ein Framework gebaut, das genau diese Illusion nährt. Die Illusion, dass fünf Schritte reichen, um KI-Output zu bewerten, egal worum es geht. PRÜFE ist ein brauchbares Werkzeug für Themen, in denen man sich auskennt. Als universelle Lösung verkauft, wird es gefährlich.
Warum kritisches Denken scheitert
Die britische Bildungsforscherin Daisy Christodoulou beschreibt das Problem seit 2014. Kritisches Denken ist keine Generalkompetenz, die man einmal lernt und dann auf beliebige Inhalte anwenden kann. Es ist gebunden an Wissen über den konkreten Gegenstand. Ohne dieses Wissen greifen die besten Checklisten ins Leere. Kritisches Denken ohne Fachwissen ist kein Denken. Es ist Raten mit Methode.
Das klingt theoretisch. 1998 stellte Lyle Zapato eine Website ins Netz. Octopus paxarbolis, ein Baum-Oktopus im Olympic National Forest, angeblich vom Aussterben bedroht, gejagt wegen seiner Tentakel, die sich als Hutschmuck eigneten. Sein größter Fressfeind: der Sasquatch. Professionelle Naturschutzkampagne, lateinischer Artname, Sichtungsmeldungen, Spendenaufruf. Alles erfunden. Jedes Detail.
2006 setzte der Forscher Donald Leu an der University of Connecticut 53 Siebtklässler vor diese Seite. Er bat sie, die Zuverlässigkeit zu bewerten. 27 hielten sie für sehr zuverlässig. 6 erkannten die Fälschung. Dann sagte Leu den anderen, dass alles erfunden ist. Dass Oktopusse im Wasser leben und nicht auf Bäumen. Mehrere verteidigten trotzdem seine Existenz. 2018 wiederholten niederländische Forschende das Experiment. 2 von 27 erkannten den Fake. Zwei. Nach einem Jahrzehnt Medienkompetenz-Unterricht.
Die Kinder brauchten kein besseres Framework. Sie brauchten Wissen über Oktopusse.
Als ich Michael und Rita den Baum-Oktopus zeigte, lächelten beide. Natürlich. Ein Krake auf einem Baum, gejagt vom Sasquatch, das erkennt jeder.
Ohne Wissen über den Gegenstand gibt es kein kritisches Denken über den Gegenstand. Aber „greift ins Leere” klingt harmlos. Klingt nach passiert halt nichts. Es passiert aber nicht nichts. Es passiert etwas Schlimmeres. Denn KI-Output hat keinen Sasquatch. Keinen lateinischen Fantasienamen, keine Sichtungsmeldungen vom Bigfoot. KI-Output sieht aus wie seriöse Expertise. Und genau dort, wo die Gebietskenntnisse aufhören, beginnt die eigentliche Gefahr.
Die Mauer
Im September 2025 veröffentlichten Vendraminelli, DosSantos DiSorbo und ihr Forschungsteam an der Harvard Business School eine Studie, die genau das belegt. „The GenAI Wall Effect” testete bei der britischen Firma IG, wie gut Mitarbeitende mit unterschiedlichem Fachwissen KI-gestützt arbeiten können. 78 Mitarbeitende in drei Gruppen. Insider, das waren Webanalysten, die die getesteten Aufgaben aus ihrem Berufsalltag kannten. Angrenzende Outsider, das waren Marketingfachleute, thematisch verwandt, aber ohne Webanalyse-Expertise. Und entfernte Outsider, das waren Softwareentwickler und Data Scientists, fachlich am weitesten entfernt.
Alle drei Gruppen erhielten Zugang zu denselben KI-Tools.
Bei der Konzeption, also beim Erstellen einer Artikelstruktur, holten beide Außenseiter-Gruppen mit KI-Unterstützung auf. Die KI schloss die Wissenslücke. Bei der Ausführung, beim eigentlichen Schreiben, zeigte sich ein anderes Bild. Die Marketingfachleute erreichten mit KI das Niveau der Insider. Ihre Wissenslücke war klein genug. Die Softwareentwickler hingegen kamen kaum voran. Trotz identischer KI-Unterstützung. Die Forschenden nannten es die „GenAI Wall”. Eine Schwelle, jenseits derer KI fehlende Expertise nicht kompensieren kann.
Die Mauer steht. Wer das Gebiet nicht kennt, kommt nicht drüber.
Die Falle
Ich weiß, wie sich das anfühlt. Nicht aus einer Studie. Aus meinem Alltag.
Letzte Woche habe ich 490 Seiten Bildungsstatistik von Statistik Austria in Claude hochgeladen. Öffentlich zugängliche Daten zur österreichischen Bildungslandschaft. Ich wollte Kennzahlen für die Reakkreditierung meines Studiengangs analysieren. Vor einem halben Jahr hätte ich Claude eine Frage gestellt und eine Antwort bekommen. Heute lade ich Dokumente hoch, daraus lasse ich Tabellen erstellen und Daten visualisieren, Vergleiche über Zeiträume berechnen. All das in Office-Programmen als Plug-in. Claude hat dreimal nachgefragt. „Welchen Teil soll ich auswerten?” Dann: „Welche Kennzahlen interessieren dich?” Dann: „Welchen Zeitraum?” Drei Fragen, und jedes Mal musste ich präzisieren, was ich will, welche Vergleiche sinnvoll sind, welche Zahlen in Kontext gesetzt werden müssen. Meine Finger tippten die Antworten, als wäre es ein Gespräch mit einer Assistentin, die alles weiß, aber nichts versteht. Je mächtiger die Werkzeuge werden, desto mehr hängt davon ab, ob ich weiß, was ich von ihnen verlangen soll.
Ohne mein Wissen über das österreichische Bildungssystem, über die Bedeutung bestimmter Kennzahlen, über die Fragen, die für eine Reakkreditierung relevant sind, hätte Claude mir irgendwelche Tabellen ausgespuckt. Korrekt formatiert. Inhaltlich nutzlos.
Ich mache das ständig. Dokumente analysieren, Präsentationen bauen, Lernspiele programmieren. Nicht automatisch, ich steuere, kontrolliere, greife ein. Jedes Mal, wenn Claude einen Vorschlag macht, der überzeugend aussieht, aber fachlich daneben liegt, spüre ich physisch, wie ich zusammenzucke. Dieses kurze Stocken, bevor ich zurückschreibe. Nein, das stimmt nicht, weil…
Beim Baum-Oktopus war die Fälschung grotesk. Ein Krake auf einem Baum. Der Fressfeind ein Sasquatch. Wer ein Mindestmaß an Biologie kennt, lacht. KI-generierter Output hat keine Sasquatches. Er hat korrekte Grammatik, überzeugende Argumentationsstrukturen und fehlerfreie Formatierung. Der Output sieht nicht falsch aus. Er sieht professionell aus. Und wer zu wenig weiß, um den Fehler zu erkennen, weiß auch nicht, dass er zu wenig weiß. Die Illusion der Kompetenz ist perfekt.
Aber es wird schlimmer. Wer zu wenig weiß, um KI-Output zu bewerten, greift trotzdem zum Werkzeug. Und genau das verhindert, dass das fehlende Wissen jemals entsteht.
Eine Studie von Anthropic belegt genau das. Die Forschenden Shen und Tamkin ließen 52 Entwicklerinnen und Entwickler eine neue Python-Bibliothek erlernen. Die Hälfte mit KI-Unterstützung, die Hälfte ohne. Die KI-Gruppe schnitt im Verständnistest 17 % schlechter ab. Fast zwei Notenstufen. Und die Produktivitätsgewinne? Statistisch nicht signifikant.
Der entscheidende Unterschied lag in der Art der Nutzung. Wer die Denkarbeit an die KI delegierte, erreichte weniger als 40 % im Verständnistest. Wer KI dagegen als Denkpartner nutzte, Rückfragen stellte, Erklärungen einforderte, erreichte 65 % und mehr. Delegation machte nicht schneller, aber dümmer.
Ich nenne dieses Phänomen die KI-Fachkompetenzschwelle. Eine Grenze des Vorwissens, unterhalb derer KI-Nutzung nicht nur wirkungslos wird, sondern kontraproduktiv. Unterhalb dieser Schwelle kann ich KI-Output nicht bewerten, keine guten Fragen stellen, keine sinnvollen Ergebnisse erzielen. Und ich merke es nicht. Denn der Output sieht überzeugend aus. Wie eine professionelle Website über einen Baum-Oktopus. Nur ohne Sasquatch.
Die Schwelle, die schon zu niedrig war, sinkt weiter. Wer KI nutzt, ohne genug zu wissen, merkt nicht, dass er zu wenig weiß, und baut dabei weniger Wissen auf als ohne KI. Das ist kein Leerlauf. Das ist ein Teufelskreis.
Die Gesichter in meinem Hörsaal
Dann brauchen wir keine Praktikanten mehr.
Dieser Satz ist mir bei der Arbeit an meinen KI-Projekten entwischt. Nicht als Provokation. Als Erschrecken. Alles, was ich in den letzten Wochen mit KI erledigt habe, das sind Aufgaben, die eine Praktikantin hätte erledigen können. Sie hätte daran gelernt. Hätte das Bildungssystem verstanden, indem sie die Zahlen selbst durchgearbeitet hätte. Hätte Instruktionsdesign begriffen, indem sie ein Lernspiel von Grund auf entworfen hätte. Die KI hat es in Stunden erledigt.
Abends öffne ich einen Artikel von Citrini Research. Nicht mein Fachgebiet. „The 2028 Global Intelligence Crisis”, ein fiktives Makro-Memo aus dem Juni 2028. Ein Gedankenexperiment, kein Prognosepapier, aber eines, das letzte Woche einen realen Kursrutsch an den Börsen ausgelöst hat. Ein Satz bleibt hängen. Ein Claude-Agent erledigt die Arbeit einer Produktmanagerin mit 180.000 Dollar Jahresgehalt für 200 Dollar im Monat. Szenario 2028, zwei Jahre von jetzt. Ich lese den Satz zweimal. Dann denke ich an meine Studierenden.
Deren Gesichter kenne ich. In der Softwareentwicklung sehen wir es bereits. Weniger Einstiegsstellen, weniger Junior-Positionen, weil KI die Aufgaben übernimmt, an denen Berufsanfänger bisher gelernt haben. Was mich nicht überrascht, ist, dass es passiert. Was mich überrascht, ist das Tempo. Vor einem halben Jahr konnte KI Texte generieren. Jetzt erledigt sie ganze Aufgabenketten. In einem halben Jahr wird sie Aufgaben übernehmen, die wir heute noch für sicher halten.
Und was machen wir? Wir diskutieren kritisches Denken.
Was ich jetzt in mein Curriculum schreibe
Seit Mitte Jänner teile ich mein Büro mit Michael. Er ist inzwischen daran gewöhnt, dass ich zur Tür hereinkomme und sage: „Ich habe da wieder etwas Neues mit KI ausprobiert.” Diesmal komme ich mit etwas anderem. Ich komme mit dem Curriculum.
Reakkreditierung des Masterstudiengangs E-Learning und Wissensmanagement, Einreichungsfrist im Herbst. Seit über zehn Jahren leite ich diesen Studiengang. Und irgendwann, mitten in der Überarbeitung, die Modulliste auf dem Bildschirm, stelle ich mir die Frage, die alles aufmacht: Wofür bilden wir eigentlich aus?
Nicht alle Hochschulen werden dieselbe Antwort geben. Manche setzen auf Anpassungsfähigkeit, die Fähigkeit, sich immer wieder neu einzuarbeiten. Eliteuniversitäten setzen auf Persönlichkeitsbildung und Netzwerke. Beides hat seine Berechtigung. Aber mein Studiengang ist berufsbegleitend und berufsqualifizierend. Unsere Absolventinnen und Absolventen gestalten digitale Lernumgebungen in Unternehmen und Hochschulen. Wer das tun will, braucht mehr als kritisches Denken.
Das verlangt drei Dinge. Tiefes Fachwissen, weil ohne Gebietskenntnisse keine Fehlererkennung möglich ist, keine guten Fragen, keine brauchbaren Ergebnisse. Medienkompetenz, weil man sich im digitalen Raum souverän bewegen können muss, bevor man KI produktiv nutzen kann. Programme verknüpfen, Medienformate einsetzen, Daten zwischen Systemen bewegen. Und die Fähigkeit, KI souverän zu steuern. Nicht prompten. Steuern, erkennen, einordnen.
Alle drei sind nötig. Aber die Schwelle, an der alles steht oder fällt, ist die erste. Wer das Gebiet nicht kennt, erkennt die Fälschung nicht, egal wie gut er die Werkzeuge bedient.
Wir machen das bereits. Unsere Studierenden lernen Instruktionsdesign, arbeiten mit digitalen Werkzeugen, setzen KI in ihren Projekten ein. Aber es steht nicht im Curriculum. Es passiert nebenbei, in einzelnen Lehrveranstaltungen, abhängig davon, wer unterrichtet. Das muss sichtbar werden. In den Modulbeschreibungen, in den Kompetenzzielen, in der Art, wie wir Prüfungsformate gestalten. Nicht als Zeile „AI Literacy" in einem Seminar, sondern als Frage, die sich durch jedes Fachgebiet zieht.
Also fange ich an zu streichen. Lehrveranstaltungen, die ich selbst aufgebaut habe. Meine Hand zögert über der Tastatur, bevor ich die Zeilen lösche. Jede hat funktioniert. Jede hatte ihren Platz. Aber die Welt, für die sie konzipiert waren, gibt es nicht mehr.
Was reinkommt, weiß ich nur ungefähr. KI nicht als eigenes Fach, so absurd wie „Internetnutzung” im Jahr 2005, sondern durchgezogen durch jedes Fachgebiet. Und überall die Frage. Wo liegt die Schwelle, unterhalb derer die KI dich nicht rettet, sondern in die Irre führt?
Diese Frage geht über meinen Hörsaal hinaus. KI-Output skaliert. Ein KI-generierter Wahlaufruf, industriell verbreitet, personalisiert, in der Sprache des Empfängers. Tausende davon, täglich, in den Feeds von Menschen, die weder Klimawissenschaft noch politische Prozesse studiert haben. Die Fachkompetenzschwelle ist nicht nur eine pädagogische Frage. Sie ist eine demokratische.
Die Karte und das Gebiet
Andreas hatte recht, an jenem Abend im Vortragsraum, als die Stühle noch warm waren und draußen die Dämmerung einsetzte. Nur wer das Gebiet kennt, erkennt die Fälschung.
Ich habe angefangen, mein Curriculum zu überarbeiten. Lehrveranstaltungen gestrichen. Neue geschrieben, die es noch nirgends gibt. Nicht weil die Reakkreditierung es verlangt. Sondern weil die Menschen in meinen Hörsälen es verdienen.
Das Gebiet bewegt sich unter meinen Füßen, während ich die Karte zeichne. Also zeichne ich schneller.
Quellenverzeichnis
Christodoulou, D. (2014). Seven myths about education. Routledge. (Erstveröffentlichung 2013, The Curriculum Centre)
Citrini Research & Shah, A. (2026, Februar). The 2028 Global Intelligence Crisis. Citrini Research. https://www.citriniresearch.com/p/2028gi
Korzybski, A. (1933). Science and sanity: An introduction to non-Aristotelian systems and general semantics. Institute of General Semantics. https://ilam3d.wordpress.com/wp-content/uploads/2010/12/alfred-korzybksi-science-and-sanity.pdf
Leu, D. J., Castek, J., Hartman, D., Coiro, J., Henry, L. A., Kulikowich, J. M. & Lyver, S. (2005). Evaluating the development of scientific knowledge and new forms of reading comprehension during online learning (Forschungsbericht). North Central Regional Educational Laboratory/Learning Point Associates. Die Ergebnisse zum „Tree Octopus”-Experiment wurden auf der Research Conference der International Reading Association 2007 in Toronto vorgestellt.
Loos, E. F., Ivan, L. & Leu, D. J. (2018). “Save the Pacific Northwest tree octopus”: A hoax revisited. Or: How vulnerable are school children to fake news? Information and Learning Sciences, 119(9/10), 514–528. https://doi.org/10.1108/ILS-04-2018-0031
Shen, J. H. & Tamkin, A. (2026). How AI impacts skill formation. arXiv. https://arxiv.org/abs/2601.20245
Vendraminelli, L., DosSantos DiSorbo, M., Hildebrandt, A., McFowland III, E., Karunakaran, A. & Bojinov, I. (2025). The GenAI wall effect: Examining the limits to horizontal expertise transfer between occupational insiders and outsiders (Working Paper No. 26-011). Harvard Business School. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5462694
Zapato, L. (1998). Save the Pacific Northwest tree octopus. https://zapatopi.net/treeoctopus/
Meine LinkedIn Beiträge
Die folgenden LinkedIn-Beiträge habe ich seit dem letzten Newsletter veröffentlicht und sind auch ohne LinkedIn-Mitgliedschaft frei zugänglich:
Praxisprojekte Masterstudiengang E-Learning und Wissensmanagement
Unsere Praxisprojekte landen nicht in der Schublade. Sie landen bei Austro Control, beim BMI und in Pflegeheimen. 10 Projekte in einem Semester. Echte Auftraggeber, echte Umsetzungen. Hier ein Einblick in die Ergebnisse 2025/26.
KI reduziert Arbeit nicht - sie intensiviert sie
KI spart uns Zeit? Diese Harvard-Studie beweist das Gegenteil. Wer KI nutzt, arbeitet nicht weniger, sondern mehr. Freiwillig. Aruna Ranganathan und Xingqi Maggie Ye von der UC Berkeley Haas School of Business haben acht Monate lang rund 200 Mitarbeitende eines US-Technologieunternehmens begleitet. Mit Vor-Ort-Beobachtungen und über 40 Tiefeninterviews. Die Ergebnisse sind ernüchternd.
Das KI-Ökosystem der Agentic Era
Was die meisten als KI kennen, ist nur die Oberfläche. Darunter hat sich ein ganzes Ökosystem entwickelt, das Wissensarbeit gerade grundlegend verändert. Ethan Mollick nennt das in seinem aktuellen KI-Guide die Agentic Era. KI besteht nicht mehr aus einem Chatbot. Sondern aus drei Ebenen, die zusammenspielen und von denen die meisten nur eine kennen.
HalluHard: So oft halluzinieren die besten KI-Modelle
60 % Halluzinationsrate, ohne Websuche. 30 % mit. Allein diese eine Einstellung halbiert die Fehlerquote deiner KI. Was du sonst noch tun kannst, zeigt eine aktuelle Studie.



Vielen Dank für die wieder einmal tollen Denkanstöße! Ihr Newsletter ist für mich persönlich einer der relevantesten für mich im E-Learning Support einer Universität. Ich habe an diversen Stellen meiner KI-Weiterbildungen so ein diffuses Unbehagen, ob das tatsächlich die jetzt wichtigen, nützlichen Tipps sind. Und hier ist mit dem "kritischen Denken" so ein Punkt. Ich werde das in Zukunft mit thematisieren und finde das toll, danke. Denkanstöße sind so wertvoll, selbst wenn man dazu keine fertigen, erprobten Antworten parat hat.
Ich muss auch sehr viel darüber nachdenken, was wir hier für eine schwierige Situation haben. Das Design der KI-Systeme unterstützt nicht deren "gute" Verwendung; im Gegenteil. Die Systeme spucken perfekt klingende Antworten aus und loben uns für die klugen Fragen, auch wenn die Antworten halluziniert und die Fragen nicht gut gestellt waren. Ich bin zunehmend genervt davon, wie viel Aufwand man über Support, Aufklärung, "KI-Literacy" Bildung etc. hat, damit die Systeme nicht so verwendet werden, wie sie es einem suggerieren. Ich fühle mich wie jemand, der verzweifelt versucht den Menschen zu erklären, warum sie den Türöffner-Knopf 2m neben der Tür nehmen müssen und nicht die Klinke betätigen dürfen, die aber der naheliegende Weg ist. Ich mache immer größere Pfeile zum Türöffner-Knopf, schicke Rundmails über empfindliche Türöffner-Mechaniken, entwickle Lernspiele für Knopf-statt-Klinke. Und doch laufen die Menschen natürlich (!) zur Tür, drücken die Klinke und gehen durch. Das ist halt eine Tür. Mit einer Klinke. Die echten Lösungen dafür wären bautechnisch.
Und so sind die KI-Systeme auch: Gestaltet zur falschen Nutzung. Die haben ein Eingabefeld für eine Nachricht. Sie antworten auf fast alles, sehr von sich selbst überzeugt. Die korrekte Verwendung, die tatsächlich hilfreich wäre, passiert nicht by design. Und eigentlich kann man es den Menschen nicht übel nehmen, dass sie die Systeme falsch bzw. nicht optimal benutzen.
Der Artikel trifft den Nagel auf den Kopf und die beschriebene „GenAI Wall“ erinnert mich stark an meine eigene Schulzeit – nur dass unser „Wunderwerk“ damals nicht KI hieß, sondern HP48A.
Wir hatten in der Unterstufe diese wahnsinnig tollen Taschenrechner und durften sie laut Lehrplan quasi für alles nutzen. Dann bekamen wir einen neuen Mathelehrer, der eine simple, aber brillante Regel einführte: Bevor wir den Taschenrechner in die Hand nehmen durften, mussten wir überschlagen, wo das Ergebnis ungefähr landen wird. Damals habe ich es vielleicht nicht ganz verstanden, aber heute weiß ich: Er hat uns gezwungen, unsere eigene Kompetenzschwelle zu erhöhen. Er hat uns eine "Intuition", ein Gefühl für die Zahlen antrainiert.
Genau diese fundamentale Intuition scheint heute oft zu fehlen, wie ich bei der Mathe-Nachhilfe meiner Nichte immer wieder feststelle. Da wird selbst für eine Rechnung wie 100 dividiert durch 10 sofort der Taschenrechner gezückt. Vertippt man sich dann (Mal statt Geteilt) und das Display zeigt 1000, wird das Ergebnis oft völlig unhinterfragt hingeschrieben. Es fehlt der Instinkt zu denken: „Warte, kann das Ergebnis überhaupt größer sein als mein Ausgangswert?“. Ohne dieses Grundgefühl nützt das beste Werkzeug nichts – im Gegenteil, es macht blind für offensichtliche Fehler.
Exakt dasselbe Muster sehe ich jetzt im Umgang mit KI. Ich habe kürzlich mit der Tochter einer Freundin geredet, die im Informatikunterricht (HAK) kleine Programme schreiben sollte. Das bestand letztlich nur noch daraus, blind drei oder vier Prompts hintereinander in Claude einzutippen, bis ein funktionierender VBScript-Code für Excel herausfiel. Ein Verständnis dafür, was da eigentlich passiert und warum der Code läuft, war schlicht nicht vorhanden, geschweige den was die Prompts bedeuten.
Was ich damit sagen will: Das Problem der Kompetenzschwelle ist nicht neu, die KI ist in dieser Hinsicht nur der neue Taschenrechner mit Anabolika. Wenn wir über moderne Bildung und E-Learning sprechen, darf es nicht nur darum gehen, wie man Prompts formuliert. Der Fokus muss darauf liegen, wie wir diese grundlegende Intuition für ein Fachgebiet (oder alle?) vermitteln. Wir müssen trainieren, Ergebnisse kritisch einschätzen zu können, bevor die Maschine uns die fertige Antwort liefert. Denn wer kein Gefühl für die Materie hat, glaubt eben auch an den Baum-Oktopus oder den Papst in Daunenjacke oder das 1000 das richtige Ergebnis ist.